P. 1
LA_Franke

LA_Franke

|Views: 61|Likes:
Veröffentlicht vonfitzlich

More info:

Published by: fitzlich on Dec 08, 2010
Urheberrecht:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

12/08/2010

pdf

text

original

Lineare Algebra I+II

Prof. Franke

Vorlesungsmitschrift

Wintersemester 1995/1996 Sommersemester 1996

Inhaltsverzeichnis
1 Naive Mengenlehre
2.1 2.2 2.3 2.4 2.5 1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gruppen und Korper . . . . . . . . . . . . . . . . . . . . Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . Unterobjekte . . . . . . . . . . . . . . . . . . . . . . . . Erzeugendensysteme, lineare Unabhangigkeit und Basen Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

1 3

2 Vektorraume uber einem Korper

6 11 12 13 18

6

3 Matrizen
4.1 4.2 4.3 4.4 4.5 4.6 4.7

3.1 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2 Das Eliminationsverfahren von Gau . . . . . . . . . . . . . . . . . . . . . . . . . 33 Einige Fakten uber Permutationen . . . . Charakteristik eines Korpers . . . . . . . Schiefsymmetrische n-Linearformen . . . . Der Determinantenbegri . . . . . . . . . Determinanten von Matrizen . . . . . . . Orientierungen von reellen Vektorraumen Symmetrische n-Linearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

4 Determinanten und multilineare Algebra

39

39 42 45 49 52 58 61 62 66 68 70 73 75 80 83 88

5 Quadratische, hermitesche und symplektische Formen
5.1 5.2 5.3 5.4 5.5 5.6

Quadratische und symmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . Nicht ausgeartete Bilinearformen. Der Rang. . . . . . . . . . . . . . . . . . . . . Klassi kation der quadratischen Formen . . . . . . . . . . . . . . . . . . . . . . . Quadratische Formen auf reellen Vektorraumen . . . . . . . . . . . . . . . . . . . Die Gramsche Determinante, die Gruppen O( ) und SO( ) . . . . . . . . . . . . Euklidische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6.1 Das Vektorprodukt auf einem dreidimensionalen orientierten Euklidischen Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7 Hermitesche Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8 Symplektische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

62

6 Eigenwerttheorie

6.1 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines endlichdimensionalen Hilbertraums . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines Euklidischen Vektorraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

91
93 99 105 112

7 A ne Raume und Faktorraume 8 Tensorprodukte

7.1 A ne Raume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 7.2 Der Faktorraum V=W nach einem Unterraum . . . . . . . . . . . . . . . . . . . . 121

118

123
I

Eine Menge M ist eine Zusammenfassung von Objekten (die Elemente von M) unseres Denkens zu einem neuen Objekt. Beispiel: M = f0; 5; 163g, N = f130; 0g, L = f3; 10; f4; 5gg. Man kann auch eine Serie von Elementen weglassen und durch drei Punkte andeuten, wenn das Gesetz der Serie klar ist. Beispiel: IN = f0; 1; 2; 3; :: :g die Menge der naturlichen Zahlen Z = f0; 1; 1; 2; 2; 3; :: :g die Menge der ganzen Zahlen M = f0; 1; 2; : : :; 1000g Wenn P eine in der mathematischen Sprache ausdruckbare Eigenschaft ist, so kann man (meistens) die Menge aller Objekte x bilden, die diese Eigenschaft haben. Beispiel: M = fx j x hat die Eigenschaft P g. Ein Objekt x gehort genau dann zu dieser Menge, wenn es die Eigenschaft P hat. Wenn x ein Element der Menge M ist, so schreiben wir x 2 M. Wir sagen auch: x gehort zu M. Andernfalls schreiben wir x 62 M. Beispiel: M = fx j x ist eine gerade naturliche Zahlg = f0; 2; 4; : : :g x 2 M genau dann wenn x eine gerade naturliche Zahl ist. N = fx j x ist eine Primzahlg = f2; 3; 5; 7; 9; : ::g R = fx j x ist eine Menge und x 62 xg. Wenn R existieren wurde, gabe es einen logischen Widerspruch. Fur alle x gilt: x 2 R genau dann, wenn x 62 x. Setze x = R, R 2 R genau dann, wenn R 62 R (Russelsche Antinomie). Die leere Menge ; = fg. Fur alle x gilt: x 62 ;. Generell gilt fur zwei Mengen M und N: M = N genau dann, wenn fur alle x die Eigenschaften x 2 M und x 2 N aquivalent sind.

1.1 Mengen

1 Naive Mengenlehre

De nition 1:

1. Eine Menge N ist genau dann Teilmenge einer Menge M, wenn fur alle x 2 N gilt: x 2 M. Wenn das der Fall ist, so schreiben wir N M oder M N und nennen M auch Obermenge von N. 2. N ist eine echte Teilmenge von M, wenn N M und N 6= M gilt. Wenn dies der Fall ist, so schreiben wir N M oder M N. Es mu also N M gelten, und es gibt ein x 2 M fur das gilt x 62 N.

Fakt 1:
1. 2. 3. 4.

Beweis:

Fur alle Mengen M gilt: ; M,M M Fur keine Menge M gilt: M M Aus A B und B C folgt A C. Unter der Voraussetzung von (3) gilt auch: Aus A A B und B C folgt A C. 5. Aus M N und N M folgt M = N.

B und B

C folgt A

C. Aus

3. Sei A B und B C, aus x 2 A folgt x 2 B, daraus folgt x 2 C. Also gilt A C. 1

da M N = . M N = N M (L \ M) \ N = L \ (M \ N). Der Durchschnitt M \ N von M und N ist die Menge M \ N = fx j x 2 M ^ x 2 N g 2. Wegen A B folgt x 62 A. 2 De nition 2: Seien M. Es gilt. 9. Nach Fakt 1 folgt (M N) \ L = (M \ L) (N \ L). wenn M = . Die Di erenz M n N (auch M N) von M und N ist die Menge M n N = fx j x 2 M ^ x 62 N g Fakt 2: Beweis: 4. Wegen A C gilt A C. Also ist A 6= C. Es gilt. 8. Die Vereinigung M N von M und N ist die Menge M N = fx j x 2 M _ x 2 N g 3. ")": Sei x 2 (M N) \ L. Dann gibt es ein x 2 C und x 62 B. (M n N) M 4. genau dann.N Mengen. Ferner gilt (M N) \ L (M \ L) (N \ L). x 2 L \ N. und es gilt: M = N. M \ N M M N M \N N M N 2. genau dann. . Es gilt wegen B C auch x 2 C. Fall 2: Sei A B und B C. (M N) \ L = (M \ L) (N \ L) (M \ N) L = (M L) \ (N L) 5. M \ N = N \ M. 3. wenn M N. (M n N) \ L = (M \ L) n N = (M \ L) n (N \ L) 6. 2 2 1. da M n N = . damit folgt x 2 (M N) \ L. (M n A) (M n B) = M n (A \ B) (M n A) \ (M n B) = M n (A B) 7. "(": Sei x 2 (M \ L) (N \ L). Also ist A 6= C und wegen A C gilt A C. 5. Dann ist x 2 L und x 2 M N. Aus den Voraussetzungen ergeben sich folgende Implikationen: Aus x 2 M folgt x 2 N und aus x 2 N folgt x 2 M. ^ N = .4. Also ist x 2 M zu x 2 N aquivalent. Es folgt x 2 L \ M bzw. Fall 1: Sei A B und B C. Dann gibt es ein x 2 B mit x 62 A. Folglich enthalten M und N dieselben Elemente.. In beiden Fallen gilt x 2 M N ^ x 2 L. (M n N) \ N = . 1. Es lassen sich die Falle x 2 M ^ x 2 L und x 2 N ^ x 2 L unterscheiden. (L M) N = L (M N) Aber es gilt im Allgemeinen: M n N 6= N n M. Dann lassen sich die Falle x 2 L ^ x 2 M und x 2 L ^ x 2 N unterscheiden. Ferner gilt (M \ L) (N \ L) (M N) \ L. Also gilt in beiden Fallen x 2 (M \ L) (N \ L).

= . M . b) j a.De nition 3: Zwei Mengen M und N sind disjunkt.. b 2 IRg. Schreibweise: f : M ! N. b) ist die geordnete Aufzahlung der beiden Objekte a und b. Es gilt meistens. 3 Beispiel: . Also kann IR IR mit der Menge der Punkte der euklidischen Ebene identi ziert werden. 2-Tupel sind Paare. De nition 4: Ein geordnetes Paar (a. Es gilt (A \ B) C = (A C) \ (B C) (A B) C = (A C) (B C) (A n B) C = (A C) n (B C) 5. Bemerkung: Fur n = 1 wollen wir (x) mit x identi zieren. b 2 IR lassen sich mit Punkten in der Ebene identi zieren. 3-Tupel sind Tripel. Fakt 3: 1. d) genau dann. also X 1 = X.2 Abbildungen De nition 1: Eine Abbildung f von einer Menge M in eine Menge N ist eine Zuordnung. : : :. falls M \ N = . b) mit a. 1. Daraus folgt x 2 (A C) \ (B C). dann ist I I ein Quadrat. IR IR = f(a. xn) j xi 2 Xi fur 1 i ng: Fur eine Menge X sei X n = X : : : X (n Faktoren). wenn a = c und b = d. da M N = N M. 2 De nition 5: Ein n-Tupel ist eine geordnete Aufzahlung (x1. 1] = ft 2 IR j 0 t 1g IR. Wenn I = 0. Beweis der ersten Gleichung von (4): Sei x 2 (A \ B) C und x = ( . ~ ~ ~ ~ 3. welche jedem Element m 2 M ein Element n 2 N zuordnet. ) mit 2 A \ B und 2 C. : : :. Sei X1 : : : Xn = f(x1. Sei N M die Menge aller Abbildungen ! von M nach N. n) j m 2 M. M f N. 6 2. n 2 N g de niert. Beispiel: Sei IR die Menge aller reeller Zahlen. wenn f eine Abbildung von M nach N ist. Es existiert kein gemeinsames Element. b) = (c. Die geordneten Paare (a. xn). Aus M M und N N folgt M N M N 4. Es gilt (a. Das Mengenprodukt M N ist als M N = f(m.

Fakt 1: Mit den Bezeichnungen und unter den Voraussetzungen von De nition 2 gilt: f 1 (N) = M. Fur N N gilt: N M N M . so ist f jM : M ! N durch ~ ~ ~ ~ de niert. Ein anderes Beispiel ist die Funktion 0 x f(x) = 1 x 2 Q IR oder f(x) = sin x x rational : irrational ex x irrational Ein Beispiel fur eine Funktion in zwei Variablen ist die Addition: + : IR2 ! IR (x. . . Durch f(x) = y0 fur alle x 2 X ist eine Abbildung f : X ! Y de niert. aus genau einem Element. zweiten Faktor. 2.M leer. Y Mengen und y0 2 Y . Dagegen ist fur M 6= .Im Allgemeinen gilt nicht: f(M) = N. durch IdX (x) = x fur x 2 X ist eine Abbildung X Id! X de niert. Fur M = N = IR wird ein Punkt in der Ebene durch pr1 bzw. X f 1 (Y ).X 1. stets genau ein Element. Dann gilt pr1 1 die Projektion auf den ersten Faktor ist. Fur M = . Sei M eine Menge.. f(f 1 (Y )) Y . die leere Abbildung. n)) 7! m m 2 M. f(x) = 1+xx2 etc. f 1 (. X f 1 (f(X)). Wenn M M. durch pr1 : M N ! M pr1 (m. pr2 auf seine x bzw. die Menge . Fur Untermengen X M und Y N sei f(X) := ff(x) j x 2 X g N das Bild von X unter f und f 1 (Y ) := fm 2 M j f(m) 2 Y g nennt man das Urbild oder inverse Bild von Y bezuglich f. f : M ! N. die Projektion auf den ersten bzw. y) 7! x + y 4. Beispiel: f(x) = x2 . y-Koordinate abgebildet. und die Menge aller Abbildungen B A enthalt ba Elemente. Abbildungen von IR in IR (oder allgemeiner Abbildungen von IRn in IR) nennt man auch Funktionen.) = . 3. ~ ~ ~ 7. Seien X. f jM (m) = f(m) fur m 2 M ~ De nition 2: Sei f : M ! N. namlich Id. N de niert. n 2 N sind Abbildungen von M N nach M bzw. f(X) Y .. Seien M und N Mengen. f(x) = 2x. Seien A. Sei X eine Menge. B endliche Mengen mit a. f(. B Mengen und X A. Dann enthalt die Produktmenge A B genau a b Elemente.) = . n) := pr1 ((m. 4 . 2 1(X) = X B. wobei pr : A B ! A Beispiel: Seinen A. besteht . dann enthalt M . die Einschrankung von f auf M. 6. die identische Abbildung. b Elementen. Eine solche Abbildung nennt man konstant. 5.

. Also gilt: f 1 (fmg) fg(m)g. Fur n 2 B sei f 1 (n) das einzige Element von f 1 (fng). ein Rechtsinverses zu f. Nach dem Auswahlaxiom gibt es eine Abbildung g : B ! A mit g(b) 2 G(b) fur alle b 2 B. wenn ein Linksinverses zu f existiert. surjektiv.. f ist genau dann bijektiv. so ist durch 1 1 das einzige Element g(b) = a . Sei g linksinvers zu f. falls f 1 (fbg) = von f (fbg). welche sowohl linksinvers als auch rechtsinvers zu f ist. wenn es ein Inverses zu f gibt. Sei g Inverses zu f. Eine Abbildung B g A ist ein ! Linksinverses zu f. also f 1 (fng) 6= . 2. a0 2 A. Also ist f surjektiv. ")": Sei g ein Rechtsinverses zu f. Aquivalente Formulierung: Sei M = . 0 ein Linksinverses zu f de niert. so da G(n) 6= . Die Hintereinanderausfuhrung ! g f : A ! C ist durch (g f)(a) := g(f(a)) de niert. Sei A 6= . Sei 2M die Menge aller Untermengen von M.. In diesem Fall ist die zu f inverse Abbildung eindeutig bestimmt. Fur alle b 2 B gilt: b = f(g(b)) mit g(b) 2 f 1 (fbg). 3. Sei G : B ! 2A gegeben durch durch G(b) = f 1 (fbg). X = .. f ist genau dann surjektiv. da f 1 zu f invers ist und auch das einzige Inverse zu f ist. injektiv. Aus n 2 f 1 (fmg) folgt n = g(f(n)) (g ist linksinvers).. 1. damit ist f injektiv.g ! M mit 6 der Eigenschaft: a(X) 2 X fur X M. Damit ist g ein Rechtsinverses zu f. 3. Also gilt f 1 (fng) = fg(n)g. 3. 2 5 . sie wird mit f 1 bezeichnet. Sei f bijektiv. Umgekehrt folgt aus m 2 f 1 (fng) m = g(f(m)) = g(n). Man pruft leicht. g De nition 4: Seien A f B ! C Abbildungen. Wegen der Surjektivitat von f gilt: G(b) 6= . Lemma: Sei f : A ! B eine Abbildung. Wenn f injektiv ist. Dann gibt es eine Abbildung a : 2M n f. fur alle n 2 N gilt. wenn f sowohl injektiv als auch surjektiv ist. wenn ein Rechtsinverses zu f existiert. wenn f g = IdB .De nition 3: Eine Abbildung M f N ist ! 1. Ein Inverses zu f ist eine Abbildung g : B ! A. Dann gibt es eine Funktion g : N ! M mit g(n) 2 G(n) fur alle n 2 N. bijektiv. . wenn fur jedes n 2 N f 1 (fng) hochstens ein Element enthalt. 2. Dann gilt g(n) 2 f 1 (fng). 6 Beweis des Lemmas: 1. 2. Also ist f(g(b)) = b. wenn fur jedes n 2 N f 1 (fng) mindestens ein Element enthalt. und die Bijektivitat von f ist gezeigt. fur alle b 2 B. wenn g f = IdA . falls f (fbg) 6= . Das Auswahlaxiom: Seien M und N Mengen. Sei G : N ! 2M eine Abbildung. Dann ist f genau dann injektiv. Sei A 6= . "(": Sei f : A ! B surjektiv.

das rechtsneutrale Element. mm ) mit mi 2 Mi . Wenn f bijektiv ist. X M. Inverses Element: Fur alle a 2 G gibt es ein b 2 G (das rechtsinverse Element) mit a b = e.1 Gruppen und Korper De nition 1: Eine Gruppe ist ein Paar (G. (mk+1 . mm )) 7! (m1 . : : :. bezeichnet man f 1 auch als das Inverse zu f. a) AB ist normalerweise nicht die Identitat. mk ). mm )) Insbesondere gibt es Bijektionen A (B C) ! A B C ~ (A B) C. : : :. selbst wenn A = B. mm ) 7! ((m1 . AB 1 auch kommutativ: 2 Vektorraume uber einem Korper 2. mk ). Dann ist (IR . Beispiele: 1. Neutrales Element: Es gibt ein Element e 2 G (die Rechtseinheit. b. : : :. : : :. 3. Urbild von Y : f 1 (Y ) = fm 2 M j f(m) 2 Y g M. Bild von X: f(X) = ff(m) j m 2 X g N. Y N: 1. dann gibt es folgende Bijektion: (M1 M2 : : : Mk ) (Mk+1 : : : Mm ) ! M1 : : : Mm ((m1 . ~ au erdem gilt A (B C) ! (A B) C. Beispiel: Sei 1 k m. ebenso (Q .Bemerkung: Es gilt fur f : M ! N. Bis auf Bijektion ist ~ ~ A B ! B A AB ((a. b)) = (b. 1 i m Die inverse Abbildung dazu ist gegeben durch: (m1 . Assoziativgesetz: Fur a. wobei G eine Menge und : G G ! G eine Abbildung mit (g. In diesem Fall stimmen das Urbild von Y unter f und das Bild von Y unter f 1 uberein: f 1 (Y ) := fm 2 M j f(m) 2 Y g = ff 1 (n) j n 2 Y g =: f 1 (Y ): Insbesondere gilt fur Y = fng: f 1 (fng) = ff 1 (n)g. 2. ). 6 . ) eine Gruppe. 2. ). : : :. Sei IR = IR f0g und sei die ubliche Multiplikation reeller Zahlen. (mk+1. c 2 G gilt: a (b c) = (a b) c. Einselement) von G mit der Eigenschaft: a e = a fur alle a 2 G. : : :. wobei die folgenden Bedingungen erfullt sein mussen: 1. 3. h) 7! (k h) ist.

2. 3. Also ist x 1 y die einzige Losung der Gleichung. also ist ba = bae = babc = bec = bc = e mit c = b 1. Beweis: 1. ) eine Gruppe. m > 0 gilt anam = (a a {z: : a)(a a {z: : a) = | a {z: : a = an+m : | : } | : } a : } Fur viele Gruppen gilt werden. Neutrales Element ist e = Id X und ein inverses Element zu f ist durch f 1 gegeben. Es folgt: ea = aba = ae = a. ~ invers zu a. e ist auch linksneutrales Element: e a = e fur alle a 2 G. Satz 1: Sei G eine Gruppe mit dem rechtsneutralen Element e. ng). y 2 G ist die Gleichung x z = y eindeutig nach z au osbar . Ein Inverses fur a 2 G ist eindeutig bestimmt. Der Beweis ist einfach. namlich z = y x 1.2. 2. 3. Es folgt: ~ = e~ = ba~ = be = b. Sei b ein Rechtsinverses zu a. 4. Die Gruppe (S(f1. Sei af = a. 5. Dann ist (S(X). zum Beispiel fur n > 0. namlich z = x 1 y. selbiges folgt auch aus f a = a. m 2 Z. 1. f 2 G mit a f = a. Fur x. Der zweite Teil kann analog bewiesen werden. Wegen (1) ist b auch linksinvers zu a. Assoziativitat: ((f g) h)(x) = (f g) (h(x)) = f(g(h(x))) = f((g h)(x)) = (f (g h))(x). Es folgt: f = ef = a 1 af = a 1a = e. Seien a. 5. : : :. ) wird auch Sn genannt. Damit ist x 1 y eine Losung der betrachteten Gleichung. 2 Bemerkung: Fur a 2 G und n 2 Z sei 8 a a ::: a n > 0 > | {z } < n Faktoren n= a n=0 > (an) 1 :1 n<0 Es gelten die Regeln (an)m = anm und anam = an+m fur n. Sei a 2 G und seinen b. Sei X eine Menge und sei S(X) die Menge aller bijektiven Abbildungen von X auf sich selbst. Ist b ein Rechtsinverses von a. Wir bezeichnen es mit a 1 . Die Gruppen Sn nennt man deshalb auch Permutationsgruppen. b b b b 4. also ist b auch Linksinverses. Sei gegeben durch die Hintereinanderausfuhrung (f g)(x) = f(g(x)). Aus xz = y folgt z = ez = x 1xz = x 1y. Den anderen Teil zeigt man analog: f = fe = faa 1 = aa 1 = e. denn n+m Faktoren Kommutativitat kann nicht vorausgesetzt 7 . Es gilt bab = be = b. so gilt auch b a = e. ebenso ist z x = y eindeutig nach z au osbar. Dann folgt f = e. ihre Elemente sind die Permutationen der Zahlen 1 : : :n. n Faktoren m Faktoren nicht (ab)m = am bm . 3. Zunachst wird der erste Teil bewiesen: Aus z = x 1 y folgt xz = xx 1y = ey = y.

3. Wegen 1 2 K f0g gilt 1 6= 0. b 2 G gilt: Beispiele: 1. De nition: Ein Korper ist ein Tripel (K. 3. +.. ) eine Gruppe ist. ) bestehend aus einer Menge K und zwei Abbildungen +:K K ! K :K K ! K . ) und (IR . Fakt 1: Sei (K. ) ist kommutativ oder abelsch. Nebenbemerkung: Wenn (G. 1. n(x + y) = nx + ny (G ist abelsch). +. 2. +) sind abelsche Gruppen. ) sind kommutativ. da die Gruppenaxiome die Existenz des neutralen Elements fordern. so ist S(M) nicht kommutativ. ) sind Korper. ) und (Q. (Q. +. +. 2. (IR. (K. Fur abelsche Gruppen gilt die Rechenregel an bn = (ab)n . De nition: Eine Gruppe (G. K := K f0g. (K . Die Gruppen der Bewegungen in der euklidischen Ebene bzw. +. 3. Beispiel: (Z. 2. +). y) 7! x + y und (x. Fur alle x 2 K gilt 1 x = x. +). Es gilt das Distributivgesetz: a (b + c) = a b + a c. +) ist eine abelsche Gruppe mit dem neutralen Element 0. Dann gilt: 1. 0 6= 1. ) ein Korper. im euklidischen Raum sind nicht kommutativ. ) ist kein Korper (es gibt keine multiplikativ Inversen).a b = b a. (Q . Wenn M wenigstens drei Elemente enthalt. 8 Beweis: . (IR. Beispiele: 1. (Z. Fur alle x 2 K gilt 0 x = 0. nx + mx = (n + m)x. Bemerkung: Eine additiv geschriebene Gruppe ist im Allgemeinen kommutativ und wir de nieren: 8 a+ a+:::+ a n > 0 > | {z } < a n = > 0n Summanden n = 0 : ( a) ( n) n < 0 Es gilt dann n(mx) = (nm)x. dann folgt G 6= . (x. falls fur alle a. ) ist eine abelsche Gruppe mit dem neutralen Element 1. 2. y) 7! x y so da die folgenden Axiome gelten: 1.

Weil N De nition 4.2. b 2 Z und n j a b folgt. MN = fab + kn j a 2 M.1 erfullt. also ist M N. ) ist eine Gruppe mit neutralem Element 1. multipliziert und die Restklasse bildet. Aus a 2 M. Sei a = x + kn und b 2 Z und n j a b. Die Elemente von M nennen wir auch die Vertreter der Restklasse. 5. Sei M = fx + kn j k 2 Zg. ) ein Korper. Eine Restklasse modulo n ist eine Menge M Z mit folgenden Eigenschaften: 1. (IF2 . Sei = an b 2 Z. 3. Sei y 2 N.2 erfullt. Es gibt genau n Restklassen modulo n. falls M und N Restklassen modulo n sind. 2 Beispiel: Sei IF2 = f0. Beweis: 1. Jede ganze Zahl x ist in genau einer Restklasse modulo n enthalten. da auch b 2 M. damit gilt N = M. Sei n eine Primzahl. b 2 N.. M + N = fa + b j a 2 M. die x enthalt. AND-Operation. +) eine abelsche Gruppe. b 2 N g. Die oben beschriebenen Mengen M + N und MN sind Restklassen modulo n . Aus der Eindeutigkeit folgt die Behauptung. also auch y = x + kn mit k 2 Z. Aus a. k 2 Zg. 9 . 2. indem man ihre Vertreter addiert bzw. M 6= . denn x = x + 0n 2 M. M 6= . AND) ist ein Korper. die das Resultat enthalt. 3. gilt n j x y. Restklassen werden addiert und multipliziert. b 2 M folgt n j a b (n teilt a b). Weil N De nition 4. 3. Sei Z=nZ (Z nach nZ) die Menge aller Restklassen modulo n. 4. gilt auch x+kn 2 N fur alle k 2 Z. dann ist (Z=nZ. also ist N M. 1g mit folgenden Operationen: 0 1 + 0 1 0 0 1 0 0 0 1 1 0 1 0 1 Diese Operationen entsprechen der logischen XOR bzw. (K . Sei N eine andere Restklasse. Satz 2: 1. Ferner gilt: n j ((x + kn) (x + ln)) = (k l)n. Dann ist (Z=nZ. De nition 4: Sei n > 0 eine naturliche Zahl. 2. +. namlich in fx + kn j k 2 Zg. Es gilt 0 x+0 x = (0+0) x = 0 x = 0 x+0. M ist eine Restklasse. Dann folgt b = a (a b) = x + kn n = x + (k ) n 2 M. XOR.

ebenso das Distributivgesetz. 2 Es folgt die Surjektivitat der Abbildung Z=nZ ! Z=nZ N 7 ! MN Insbesondere gibt es ein N 2 Z=nZ mit NM = f1 + kn j k 2 Zg. Fur eine Primzahl n ist Z=nZ = Fn ein Korper mit n Elementen. y n und x 6= y folgt 0 <j x y j< n. aus (3) folgt M + (N + O) = (M + N) + O. gilt n = x. 3.1 folgt die Behauptung. gibt es eine Bijektion: Restklasse modulo n ! fx 2 Z j 0 x ng M 7! das einzige x 2 M mit 0 x n (Es gibt genau n Restklassen . 2 Zg = fxy + ln j l 2 Zg m := k + y + x + n Mit Satz 2. b 2 Nk 2 Zg a = x + n. Neutrales Element ist die Restklasse. was zu zeigen war. y 2 N. dann ist M + N = fa + b j a 2 M. b 2 N g a = x + kn. j ~ Lemma: Sei X eine endliche Menge. Es folgt x 2 M. Dann ist x + y 2 M + N und y + z 2 N + O. also n j (y y ). da jede Restklasse M genau einen Vertreter x mit 0 x n enthalt. also teilt n nicht x y. N ist also das Inverse zu M. Die Kommutativitat und Assoziativitat der Multiplikation zeigt man wie bei (4) des Beweises. Wenn diese Behauptung gezeigt ist. folglich auch bijektiv. Wir behaupten. z 2 O. 5. Seien MN=M N. Also leistet x das Gewunschte. Dividiere n mit Rest x fur a = kn + x fur 0 x n. . also folgt x + (y + z) 2 M + (N + O) und (x + y) + z 2 (M + N) + O. und sei f : X ! X eine injektive Abbildung. Wir mochten ein inverses Element zu M konstruieren. 2 10 . Aus MN = M N folgt daher. b = y + n = fxy + (k + y + x + n)n j . k. 4. Das neutrale Element der Multiplikation von Restklassen modulo n ist die Restklasse von 1 = f1+kn j k 2 Zg. Sei x 2 M. y 2 N und y 2 N. da die Abbildung Z=nZ ! Z=nZ N 7! MN ~ injektiv ist. Assoziativitat: Sei x 2 M. Also konnen x und y nicht zur selben Restklasse gehoren. Kommutativitat ist o ensichtlich. Weil n eine ~ und M N y ~ Primzahl ist. b = y + ln = fx + y + (k + l)n j k. welche die Zahl 0 enthalt. Dann ist f surjektiv. Sei M ein von 0 verschiedenes Element von Z=nZ und sei n eine Primzahl. y 2 N.2. gibt es ein a 2 M. da n j x(y y ). l 2 Zg = fx + y + mn j m 2 Zg m := k + l MN = fab + kn j a 2 M. Wir zeigen zunachst. Das inverse Element zu M ist f m j m 2 M g. x 2 M. Dann gilt: MN = fxy+kn j k 2 Zg ~ ~ ~ = fx~ + kn j k 2 Zg. Eindeutigkeit: Aus 0 x. es gibt genau n Elemente) a Beweis der Behauptung: Existenz: Da M 6= .

11 . w 2 V . wenn folgende Axiome erfullt sind: 1. Das Nullelement fur + ist die reelle Zahl 0. d. xn) + (y1 . : : :. d) = (ac bd. xn) = (kx1. +. Nachweis der Korperaxiome: Kommutativitat und Assoziativitat von + und rechnet man leicht nach. x1. Ferner gilt: i = (0. : : :. : : :. xn + yn ) fur alle x1. d. b) + (c. yn ) = (x1 + y1 . kxn) fur alle k. l 2 K gilt: (a) k (v + w) = k v + k w (b) (k + l) v = k v + l v 4. xn 2 K. ad + bc) Das Paar (a. l 2 K gilt: k (l v) = (kl) v 3. : : :. : : :xn. : : :.h. g) 7 ! k g(x) : (f. xn) mit x1 . d) = (a + c. y1 : : :. b + d) (a. Das multiplikativ Neutrale 1K von K operiert trivial. : : :. b) bezeichnen wir in diesem Zusammenhang als a + ib. 1. Die Elemente von C nennt man komplexe Zahlen. skalaren Multiplikation + : KX KX ! KX KX ! KX und : K (k. b 2 IR versehen mit den Operationen der Addition und der Multiplikation: (a. 2. : : :. ) ein K-Vektorraum. (b) k(x1. 1) ) i2 = 1. Sei X eine Menge und K X die Menge der Abbildungen von X nach K zusammen mit der Addition bzw. 0). Jede reelle Zahl t kann mit der komplexen Zahl t + i0 identi ziert werden. Der Vektorraum K n aller n Tupel (x1. Das Einselement fur ist die reelle Zahl 1. k. (1. man betrachtet daher die reellen Zahlen als Teilmenge der komplexen Zahlen. fur alle v 2 V gilt 1K v = v Beispiel: Bemerkung: Das additiv Neutrale 0K des Korpers operiert als 0K v = 0V . 3. : : :. b) (c. denn 0K v = (k k) v =k v k v = 0V . yn 2 K. +.h. d. (V. b) mit a. Fur alle v. g) 7! f(x) + g(x) Dann ist (K X . Fur alle v 2 V .0). xn 2 K wird mit folgender Addition und skalarer Multiplikation de niert: (a) (x1. (0.De nition 5: Sei C die Menge aller geordneten Paare (a. ) (oft auch einfach V ) mit der Addition + und der skalaren Multiplikation hei t ein Vektorraum uber K. +) ist eine abelsche Gruppe 2. der Nullvektorraum. x2. x2. Das inverse Element zu a + ib ist a ib 2 a2 +b2 . 2. k.h. Eine Menge (V. V = f0g. ebenso folgt die Distributivitat.2 Vektorraume De nition: Sei K ein Korper.

w) j v 2 V. De nition: Sei K ein Korper und L K eine Teilmenge von K. l2 2 L. v 2 V gilt l1 (l2 v) = (l1 l2 )v. ) ist. Beweis: 1. wenn 1. ) uber einem Korper K hei t Untervektorraum. w)+(~. Das hei t. Die Gruppenaxiome folgen aus der Einschrankung der Rechenregeln fur G. (K. l 6= 0 gilt k l 1 2 L. weil 1L = 1K . w 2 W g wieder ein Vektorraum mit der Addition (v. wenn fur alle g. Bemerkung: Das neutrale Element eG von G liegt in H und ist auch dort das neutrale Element. 12 .3 Unterobjekte De nition: Eine Teilmenge H einer Gruppe (G. k2 2 K gilt l(k1 + k2 ) = lk1 + lk2 und fur alle l1 . v. 3. l 2 L gilt k l 2 L und fur alle k. w+ w). kw). h 2 H auch g h 1 2 H gilt. w 2 W v ~ v ~ ~ ~ und der skalaren Multiplikation k(v.4. +). L hei t Unterkorper von K. k1. falls fur alle k 2 K. L mit der eingeschrankten Addition eine Untergruppe von (K. W zwei Vektorraume uber einem Korper K. weil l1 . Seien V. l2 2 L. 2 De nition: Eine Teilmenge U eines Vektorraumes (V. Fur alle k 2 K gilt 1L k = 1K k = k. l2 2 L. +. L f0g mit der eingeschrankten Multiplikation eine Untergruppe von (K f0g. w 2 W . k 2 K gilt l1 (l2 k) = (l1 l2 )k nach dem Assoziativgesetz in K. w. l 2 L. k 2 K. Fur alle l 2 L. Fur h 2 H ist h h 1 = eG das neutrale Element. fur alle h. 2. w 2 U auch v + w 2 U und kv 2 U. v 2 V. w 2 U ist v w = v + ( 1K )w 2 U. 2 Allgemeiner ist jeder Vektorraum V uber K ein Vektorraum uber L. k 2 K gilt (l1 + l2 )k = l1 k + l2 k (Distributivgesetz in K). dann ist die Summe V W := f(u. Axiom 4: fur alle v 2 V gilt 1L v = v. betrachte dazu nur jene Permutationen von n Elementen. w) = (v+~. Beispiel: Ist L Unterkorper von K. zum Beispiel Axiom 2: fur alle l1. 2. Fur alle l1 . +) ist eine kommutative Gruppe. +) und 2. l2 2 K und die Regel uber K gilt. denn fur v. Beweis: Axiome fur K eingeschrankt auf L. Beispiel: Die symmetrische Gruppe Sn 1 zu n 1 Elementen ist eine Untergruppe der symmetrischen Gruppe Sn zu n Elementen. ) hei t Untergruppe von G. v. die das letzte Element an seinem Platz lassen. so ist K ein Vektorraum uber L. Bemerkung: U ist mit der eingeschrankten Addition von V eine Untergruppe von (V. H ist auch eine Gruppe mit der eingeschrankten Operation von G. v 2 V . 4. also eG 2 H. w) = (kv.

Un Untervektorraume von V . U2 . kn 2 K. 9 . 9i 2 I : X j 2I vi = n X i=1 vi ~ X j 2I fig vj = vi 2 Ui \ ^ ^ X vj = 0 ^ Uj Ui \ X j =1 j 6=i j 2I fig Uj . falls L(S) = V .Bemerkung: Wenn U ein Untervektorraum von V ist und u1 . n 2 IN f0g.4 Erzeugendensysteme. k1. De nition: Der von einer Teilmenge S V erzeugte Unterraum von V ist 2. : : :. anders ausgedruckt: S erzeugt V . P n P gilt die Behauptung fur n. i=1 i Lemma: Seien U1 . dann ist n X kiui = k1 u1 + : : : + knun 2 U: Beweis durch vollstandige Induktion:+1 = 2: folgt aus der De nition eines Untervektorraumes. : : :. = I f1. (2) gilt nicht De nition: Falls (1) und (2) gelten. ki 2 K. 8 i 2 I : vi = vi vi 2 Ui f0g : ^ ~ . so gilt n=1 ki ui = n=1 kiui + kn+1un+1 2 U. vi 2 Ui . n X i=1 kivi j n 2 IN. vi 2 S g: S hei t Erzeugendensytem. hei t die Summe der Ui direkte Summe der Untervektorraume Ui . 6 ~ ~ n X i=1 . vi 2 Ui : vi 6= vi . ui 2 Ui : ) Pn U ist wieder ein Vektorraum. Fur alle 1 i n gilt: Ui \ j =1 j Beweis: j 6=i (1) gilt nicht . U2. : : :. eindeutig. geschrieben: Ln=1 Ui : i 2 Sei V ein Vektorraum uber einen Korper K. un 2 U. Un Untervektorraume von V . dann sind folgende Aussagen aquivalent: P P 1. : : :. L(. lineare Unabhangigkeit und Basen L(S) := f f0g. : : :. 2 i i De nition: Seien U1. ng : 8 i 2 I 9 vi . i Pn U = f0g i 2.) := 13 . Fur alle u 2 n=1 Ui ist die Darstellung w = n=1 vi . dann ist die Summe der Untervektorraume Ui zu schreiben als: n X i=1 i=1 Ui = U1 + U2 + : : : + Un := (X n i=1 kiui j ki 2 K.

Falls T S. P 3. 1 i n ~ i6=j (1) gilt nicht. L(S) ist der kleinste Unterraum. wenn v 6= 0. also ist L(S) 2 i U 2WS U. Beweis: S = fei j 1 i ng erzeugt K n. 1 i n. 9 vi 2 S. Lemma 1: Die folgenden Aussagen fur eine Teilmenge S V sind aquivalent: 1. i T W U = T W U = L(L(S)). .h. : : :. ki 2 K . 2. wo sich der Eintrag 1 be ndet. 1 j m k ~ i Pmax(m. vj = 6 i=1 kj vi . kn) j kj 2 K g. v 2 K n. V = vi2S L(fvig) = Lvi2S kivi . : : :. die Pn kanonische Basis oder auch Standardbasis. 0. : : :. falls v 2 L(S). Fur beliebige Teilmengen T. j j 6=i ki+1. ~i 2 K . dann ist m = n und es gibt eine Permutation von f1. fur alle vi 2 S. Fur jedes w 2 L(S) ist die Darstellung w = n=1 kivi . P vi 2 S: n=1 kivi 2 U fur alle U 2 WS . : : :. S hei t linear unabhangig. j : vj 2 L(S fvj g) . i=1 ~i i ~ ~ . ng mit ~ k (i) = ki . 1. 0. also ei 62 L(S fei g). da fur alle ki 2 K. Andererseits gilt fur alle ki 2 K. : : :.h. S hei t Basis. 9 vi 2 S. vi 2 S schreiben la t. ~ De nition: v 2 V hei t linear abhangig von S V . n 2 IN. ki 2 K folgt aus n=1 ki vi = 0. vi 2 S : w =L n=1 kivi .Bemerkung: Sei S V . (2) gilt nicht. ki 2 K . vi 6= vj fur i 6= j. wenn sich jedes Element w 2 V P als Summe w = n=1 kivi mit ki 2 K. 9 i : kivi 6= kj vj . ki 2 K . kn) fur alle k1. j : kj = 0. ki 2 i j =1 K. vi 2 S. wenn v nicht linear abhangig von S ist. Beweis: Einerseits gilt L(S) TU 2WS U. P Beweis: S ist Erzeugendensystem ) 9 ki 2 K. vi. 1 i n : Pn=1 kivi = 0 . weil L(S) 2TWS . 9 vi 2 K . v (i) = vi . Fur 1 i n sei ei := (0. wenn alle v 2 S von von S fvg linear unabhangig sind. wenn S ein linear unabhangiges Erzeugendensystem ist. vj 2 T g =L(T) + L(S). 0) 2 K n der Vektor. weil i=1 ki ei = (k1. 9 ki . : : :. 2 14 Beweis: (2) gilt nicht . Bemerkungen: P 1. Dann gilt L(S) = TU 2WS U.kki 2 K . denn L(S) = S S P P ~~ ~ 3. vi 2 T gilt: n=1 ki vi 2 L(S). P 2. 0. WS := f samtliche Unterraume U von V j S U g. und diese Darstellung bis auf i Vertauschung der Indizes eindeutig ist. weil L(S fei g) = f n=1 kj ej j kj 2 kg =f(k1 . d. 9 vP2 S. Diese Darstellung ist eindeutig nach Lemma 1. der S enthalt. 2 Beispiel: Sei n 2 IN.n) k v~ = 0 . S ist linear unabhangig. S ist linear unabhangig i . Dann ist die Menge fei j 1 i ng eine Basis von K n. S U gilt: L(T S) =f n=1 kivi + m kj vj j ki. S U L(S ) U Beispiel: fvg fur v 2 V ist linear unabhangig genau dann. L(L(S)) = L(S). vi 6= vj fur i P ~~ i 6= j in folgendem Sinne bis auf Vertauschung eindeutig: sei w = m ki vi eine weitere i=1 derartige Darstellung. kn 2 P K. vi 2 S : i=1 2 Fakt 2: Eine Untermenge S V ist genau dann eine Basis. dessen Eintrage uberall null sind. da k1 = : : : = kn = 0 i (wichtiges Kriterium!). v 2 V hei t linear unabhangig von S. vi 2 S : 0 = n=1 ki vi m kivi . i n i i 1 i n. d. P P ~~ ~~ (3) gilt nicht . : ::. ki 1. au er an der i-ten Stelle. vi 2 S. S ist linear unabhangig. dann gilt L(T) L(S).

ist eine Basis von f0g. Dann kann jedes Element x 2 V auf P genau eine Weise in der Form x = n=1 i xi mit i 2 K dargestellt werden. da B 0 2 M. : : :. : : :. xi 2 M g. i also folgt die Behauptung. 1. was auch nicht sein soll. Also # 6= 0 und es folgt 1 x = # (y 1 x1 : : : n xn ) 2 L(M). : : :. also gibt es ein s 2 L(S) und 1. S kann durch jT j jS j Elemente von T zu einer Erzeugendenmenge fur V erganzt werden. Dann gilt: 1. Sei B 0 = B fbg. De nition 3: Einen Vektorraum nennt man genau dann endlichdimensional. sei x 62 L(M).) = f0g. Beweis: Durch vollstandige Induktion nach jS j. : : :. 2 Lemma 2: Sei V ein Vektorraum und S V eine endliche Untermenge von V . Lemma 3: Sei M V linear unabhangig. T eine endliche Untermenge von V . da B linear unabhangig und daher eine Basis von V ist. Beweis: Sei M die Menge aller Untermengen von S. M V . L(M) = fPn=1 i xi j i 2 K. Seien beide Behauptungen wahr fur Mengen mit jS j 1 Elementen. denn S 2 M.Beispiel 1: . welche V erzeugen. fur alle T 2 M gilt jT j jB j (jM j :=Anzahl der Elemente von M). Dann gibt es eine Untermenge B S. Insbesondere gilt b 2 L(S 15 . Aus # = 0 wurde y 2 L(M fyg) folgern. wenn er eine endliche Basis hat. jS j jT j 2. Wir behaupten. Fur jeden Vektorraum V ist . also S = . Dann ist auch N := M fxg linear unabhangig. tl g ~ ft1.h. : : :. welche V erzeugt. und S V eine linear unabhangige Menge. tl 2 T. 2 Bemerkung: Wir hatten auch eine linear unabhangige Untermenge von S mit der gro tmoglichen Anzahl an Elementen betrachten konnen. sind beide Behauptungen trivial. Sei l = jT j jS j. was nicht sein soll (M linear unabhangig). es gilt l 0 und es gibt t1 . tl g). xn 2 M fyg und #. Insbesondere hat jeder Vektorraum eine Basis. welche V erzeugt. : : :. V linear unabhangig. damit B 0 2 M im Widerspruch zur De nition von B. L(. Sei b 2 S und ~ ~ ~ sei S = S fbg. Fur jS j = 0.. : : :. so gabe es ein b 2 B mit b 2 L(B fbg). Wenn B nicht linear unabhangig ware. xng eine Basis des Vektorraums V . so da S ft1. Fakt 3: Sei fx1. Die Elemente dieser Menge sind endliche Mengen. 2 Folgerung: Jeder Vektorraum. Bemerkung: Mit Hilfe des Auswahlaxioms kann der Beweis von Lemma 2 auch fur unendliches S gefuhrt werden. besitzt auch eine endliche Basis. d. i Das ist o ensichtlich aus Lemma 1 und Fakt 2. denn jB 0 j < jB j. n 2 K mit y = #x + 1 x1 + : : : + n xn. Also gibt es ein Element B 2 M mit der kleinstmoglichen Anzahl an Elementen. Satz 1: (Austauschsatz von Steinitz) Sei V ein Vektorraum uber einem Korper K. welche eine Basis von V ist. der eine endliche Erzeugendenmenge besitzt. Beweis: Andernfalls gabe es ein y 2 N mit y 2 L(N fyg) = L((M fxg) fyg) und damit x1. l 2 K ~ V erzeugt. M ist eine nichtleere Menge. wir behaupten. Tatsachlich gilt L(B 0 ) = L(L(B 0 )) = L(L(B 0 ) fbg) L(B 0 fbg) = L(B) = V: Also L(B 0 ) = V .

De nition 5: Die Anzahl der Elemente einer Basis eines endlichdimensionalen Vektorraumes V ist die Dimension von V . denn es gilt t1 = 11 (b s i=2 i i ~ also S ft1. Das ist ein Widerspruch zur Voraussetzung. Aus (3) folgt: jS 0 j = dimV . Nach Lemma 2 gibt es ein M T welches eine Basis von V ist. tl g = R erzeugt. Fur l = 0 wurde dies b = s 2 L(S) bedeuten. 3. im Widerspruch zur linearen Unabhangigkeit von S. ohne Beschrankung der Allgemeinheit i = 1. Beweis von Folgerung 2: Seien B. S V eine linear unabhangige Menge und T V eine Erzeugendenmenge. 2 Folgerung 3: Sei V ein endlichdimensionaler K-Vektorraum. so ware dimV = jM j < jT j. S kann durch jB j jS j = 0 Elemente von B zu einer Erzeugendenmenge erganzt werden. wenn die Gleichheit bei (3) eintritt. mit Hilfe von Lemma 3 zu S solange Elemente hinzuzufugen. und wir schreiben dim V . Aus demselben Grund gibt es ein i mit i 6= 0. Wenn M T ware. Also gilt l 1 und (1) ist fur S bewiesen. woraus (2) folgt. T = B ) jB 0 j j B j Daraus folgt jB j = jB 0 j. S ft2 . B0 endliche Basen. bis man eine linear unabhangige Erzeugendenmenge erhalt. 4.P ~ mit b = s + li=1 i ti . jS j dimV 2. Dann ist S linear unabhangig. : : :. wenn jS j = dimV . sei S B eine Untermenge mit jT j + 1 Elementen. Eine andere Moglichkeit des Beweises von (5) ist es. 2 16 . jT j dimV 4. Wende Steinitz (2) an. Dann wird V durch Pl t ) 2 L(R). 3. Wende Steinitz (1) auf S und B an: jS j jB j = dimV . also ist S selbst eine Erzeugendenmenge. Aus (4) folgt. Angenommen. 2. 2 Folgerung 2: Zwei Basen eines endlichdimensionalen Vektorraumes haben dieselbe Anzahl von Elementen (was die Endlichkeit einschlie t). Sei T eine endliche Basis von V . es gabe eine unendliche Basis B von V . 5. S ist genau dann eine Basis. Dann gilt: 1. Zu: 1. Sei S V linear unabhangig. Jede linear unabhangige Untermenge von V kann zu einer Basis erganzt werden. T ist genau dann eine Basis. also L(R) = V nach den wohlbekannten Eigenschaften von L. Sei jS j = dim V = jB j. Wende Satz 1 an mit: S = B. 5. tl g L(R). T = B 0 ) jB j jB 0j S = B 0 . Wende Steinitz (2) auf S und B an: S kann durch jB j jS j Elemente von B zu einer Erzeugendenmenge S 0 erganzt werden. da S 0 eine Basis von V ist. Wende Steinitz (1) auf B und T an: dimV = jB j jT j. Beweis: Sei B eine Basis von V . : : :. Widerspruch zu Satz 1. Es gilt: jS 0 j jS j + jB j jS j = dim V . Also gilt: T = M und T selbst ist eine Basis von V .

c also a=1 i wi + b=1 j uj = l=1 l vl . Dann ist auch U + V endlichdimensional. : : :. Folglich ist B unabhangig. wa g eine Basis von U \ V . Beweis der linearen Unabhangigkeit von B: Ware B nicht linear unabhangig. und es gilt: dimW dimV . Sei d = dimW und sei B = fw1. c = dimV dim(U \ V ). : : :. nachuFakt 3: Basis :von=U cist. Wir konnen u und v als u = a=1 ki wi + b=1 lj uj . : : :.1 folgt dimW d dimV . g = 1 = :: Pa1. 2 Satz 2: Seien U und V endlichdimensionale Unterraume eines Vektorraumes X. 0. m 2 K darstellen. Dann ist S auch eine Erzeugendenmenge. wa . im Widerspruch zu Auswahl von S. v = j Pa k0 w + c m v mit k . w1. Dann kann x in derP x = uP v mit v 2 V Form + und u 2 U P dargestellt werden. 1. Weil l i fw w . also V = W .1). also j i gehoren Pc Seiten PaU \ V . vc. 2 Fakt 5: Sei W ein K-Vektorraum und d 2 IN. und es gilt: P P P 17 . Sei B = fw1. und es gilt: dim(U + V ) + dim(U \ V ) = dimU + dim V: Fakt 4: Sei W werden. die nicht alle verschwinden. Die rechte Pa kann als Linearkombination der Pic geschrieben beide zu Seite w P P werden: l=1 l vl = i=1 i wi ( 2 K) = i=1 0wi + c=1 l vl = a=1 i wi + i=1 0vk . wag ist eine Basis von U + V . also auch von V . 1 . so da jS j d fur jede linear unabhangige Untermenge S V gilt.V ein Unterraum eines endlichdimensionalen Vektorraumes. bg eine i i j =1 i=1 3 i = i = 0. wa . Unter Anwendung von Fakt 5 folgt die Behauptung. vcu eine Basis von . v1. Die linke Seite gehort zu U. Wenn die Gleichheit eintreten sollte. c 2 K. Wir erhalten folgt nach Fakt j j = 0. u1 : : :. b . die rechte zu V . ubg von U und zu einer Basis fw1. Beweis von L(B) = U + V : Sei x 2 U + V . b = dimU dim(U \ V ). Das ist aber ein Widerspruch zur Annahme. Beweis der Endlichdimensionalitat von W: Jede linear unabhangige Menge S W ist auch in V linear unabhangig. denn andernfalls gabe es ein v 2 W L(S) und nach Lemma 3 ware S fvg linear unabhangig. folgt. Weil fw1 :. : : :. mit a X i=1 iwi + b X j =1 j uj + c X l=1 l vl = 0. : : :. wd g eine Basis von W . vcg von V erganzt (ki + ki0 )wi + b X j =1 lj uj + c X l=1 ml vl 2 L(B): Also erzeugt B U + V . Behauptung: Die Menge fu1. Dabei gilt die Gleichheit genau dann. Aus Folgerung 3. Nach Folgerung 3. : : :. ub. l . k0. so gabe es 1. : : :. Also gilt i i i i i i=1 i i l=1 l l u+v = a X i=1 Beweis: Sei a = dim(U \ V ). so folgt aus 3. also gilt jS j dimV (3. 1 . : : :. da B linear abhangig ist. da B eine Basis von V ist. Dann ist auch W endlichdimensional. v1. a.5 kann diese Basis von U \ V zu einer Basis fw1. : : :. wenn W = V gilt. Beweis: Wir nehmen zunachst an.w a+vPb: : :. : : :. Dann ist B linear unabhangige Teilmenge von W.V: : ist. : : :.2). : : :. wa. : : :. u1. Dann ist dieser Vektorraum endlichdimensional (d ist obere Schranke). da W endlichdimensional ist. Beweis: Sei S eine linear unabhangige Untermenge von W mit der gro tmoglichen Anzahl an Elementen. damit ist U + V endlichdimensional.

5 Lineare Abbildungen De nition 1: Seien G und H multiplikativ geschriebene Gruppen. Seien G. Dann gilt: '(1) = 1. H). Fur g 2 G gilt (( ) )(g) = ( )(g) (g) = (g) (g) (g) = (g)( )(g) = ( ( ))(g): Es sei e(g) = 1 fur alle e 2 G. Sei Hom (G. Sei ' 2 Hom(G. Sei H abelsch und sei '. wird auch Hom (G. 2 Hom(G. Fakt 1: Beweis: 1. H). '. 2. l m 3. Wenn H additiv geschrieben ist. H). und Hom (G. Mit Hilfe der Kommutativitat von H pruft man leicht 2 Hom (G. Sei ' durch (' )(g) = '(g) (g) de niert. dann gilt f f = '(1) '(1) = '(1 1) = '(1) = f. H) wird mit dieser Verknupfung eine abelsche Gruppe. Kommutativitat pruft man wie die Assoziativitat. dimU = a + b. sind Gruppenhomomorphismen: Fur g. 4. g2 2 G. dim(U \ V ) = a 3. ist invers zu '. H Gruppen. Die identische Abbildung Id G ist fur jede Gruppe G ein Homomorphismus von G nach G. 1. h 2 G gilt (' )(gh) = '(gh) (gh) = '(g) '(h) (g) (h) = '(g) (g)'(h) (h) = (' )(g)(' )(h): Gruppenaxiome fur Hom(G. Dann gilt auch ' 2 Hom(G. 2 Hom(G. dim(U + V ) = jB j = a + b + c 2. H) die Menge aller Homomorphismen von G nach H. Fur g 2 G gilt: '(g 1 ) = '(g) 1 2. dann ist auch m l ein Gruppenhomomorphismus: (m l)(gh) = m(l(gh)) = m(l(g)l(h)) = m(l(g))m(l(h)) = (m l)(g)(m l)(h). Damit sind alle geforderten Eigenschaften nachgewiesen. 2 Bemerkung: 1. 2. Seien G ! H ! I Gruppenhomomorphismen. . H). H): Seien . Aus den grundlegenden Eigenschaften von Gruppen folgt f = 1. Sei f = '(1) 2 H. dim V = a + c. H).1. denn 'e = e' = '. H) und (g) = '(g) 1 . 18 . Ein Gruppenhomomorphismus ist eine Abbildung ' : G ! H mit der Eigenschaft '(g1 g2) = '(g1) '(g2) fur g1 . H) additiv geschrieben. dim(U \ V ) + dim(U + V ) = 2a + b + c = dimU + dimV 2 2. Sei ' 2 Hom(G. dann ist durch e(g) = 1 2 H fur alle g 2 G ein Homomorphismus von G nach H de niert.

Die Hintereinanderausfuhrung zweier linearer Abbildungen ist linear. Die Abbildung f : C ! C mit f(z) = z ist IR-linear. y 2 K : wende die Tatsache an. ebenso j : IR ! C mit j(x) = x + i0 fur alle x 2 IR. Die identische Abbildung ist linear. 4. 1 i n. 3. +. Sei 2 K. Die Menge der K-linearen Abbildungen von X nach Y bezeichnen wir mit L(X. Dann ist f ein Korperhomomorphismus. In den folgenden Betrachtungen ist der Grundkorper K meist vorgegeben. Beispiel: Die identische Abbildung ist ein Korperhomomorphismus von K nach K. f : (X. 2. Bemerkung: C ist sowohl IR-. aber nicht C-linear. +) und (L. Y ). dann gilt f n X i=1 ki x i = ! X n i=1 kif(xi ). Sei f linear. Die Einschrankung eine linearen Abbildung auf einen Untervektorraum ist linear. Beweis: 2. x. Eine Abbildung f : K ! L ist ein Korperhomomorphismus genau dann. Sei f : Q ! IR durch f(x) = x fur x 2 IR de niert. Eine K -lineare Abbildung (oder ein K -Vektorraumhomomorphismus) ist eine Abbildung f : X ! Y mit folgenden Eigenschaften: 1. +) ist ein Gruppenhomomorphismus. x 2 X. f ist ein Gruppenhomomorphismus von (K. Y Vektorraume uber einem Korper K. x = 0 oder y = 0: Sei x = 0. da f : (K . als auch C-Vektorraum. dann gilt f( x) = f(x). ) ! (L . dann ist f(x) = 0 und f(xy) = f(x) f(y) = 0 f(y) = 0 = f(0 y) = f(xy). Fakt 2: 1.De nition 2: Seien (K. ki 2 K. Die Hintereinanderschaltung von Korperhomomorphismen ist wieder ein Korperhomomorphismus. denn es gibt nur die zwei Moglichkeiten 1. y 2 K. ) ist ein Gruppenhomomorphismus. ) ! (L . 2. +. ) ein Gruppenhomomorphismus ist. Bemerkung: Ist f ein Korperhomomorphismus. so gilt f(xy) = f(x)f(y) fur alle x. 19 . De nition 3: Seien X. xi 2 X. wenn folgende Eigenschaften erfullt sind: 1. 2. ) und (L. ) Korper. f(K ) L und f : (K . +). und wir sprechen von linearen Abbildungen statt K-linearen Abbildungen. +) ! (Y.

2. Wegen (f + g)( x) = f( x) + g( x) = f(x) + g(x) = (f + g)(x) ist auch De nition 3. Dann gibt es xi 2 U mit f(xi ) = yi fur i 2 f1. x2 2 f 1 (V ). dann gilt f(x1 + x2 ) = f(x1 ) + f(x2 ) 2 V . (kf)(x) = kf(x) de nierten Abbildung f + g und kf linear. Es folgt y1 = f(x1 ) = f( x1 ) 2 f(U) und y1 +y2 = f(x1 )+f(x2 ) = f(x1 +x2) 2 f(U). Der Nachweis der Vektorraumaxiome fur L(X. 2 20 Fakt 4: Sei f : X ! Y linear. y2 2 f(U) und 2 K. x 2 X. so sind auch die durch 1. Dann ist f 1 (V ) ein . Seien X ! Y ! Z linear. 2g. Seien x1.1 erfullt. Beweis: Die Gultigkeit der Behauptung von De nition 3. k 2 K. Man nennt X auch den Dualraum von X. k 2 K: (g f)(x1 + y1 ) = g(f(x1 + x2 )) = g(f(x1 ) + f(x2 )) = g(f(x1 )) + g(f(x2 )) = (g f)(x1 ) + (gf)(x2 ).1. weiterhin 0 = f(0) 2 f(U). 2. naturlich gilt auch 0 2 f 1 (V ). also x1 + x2 2 f 1 (V ). Auf diese Weise wird L(X. x2 2 X. Beweis: Seien y1.2. wegen (kf)( x) = kf( x) = k( f(x)) = (k )f(x) = ( k)f(x) = (kf(x)) = (kf)(x) auch De nition 3. g : X ! Y lineare Abbildungen sind. (f + g)(x) = f(x) + g(x). Y ) ist klar. ist trivial. f( x) = f(x) 2 V . 2 Fakt 3: Wenn f.1 folgt aus Fakt 1. Induktion nach n: n=1: n!n+1: f( f( 1 X i=1 n+1 X i=1 ki xi) = f(k1 x1) = k1f(x1 ) = kixi ) = f( n X i=1 n X 1 X i=1 k1f(x1 ) n X f(kn+1 xn+1) = ki x i ) + i=1 n+1 X ki f(xi ) + kn+1 f(xn+1 ) = kif(xi ): i=1 i=1 ki xi + kn+1xn+1 ) = f( 2. 2 De nition 4: Sei X ein Vektorraum uber K. also x 2 f 1 (V ). Unterraum von X und f(U) ist ein Unterraum von Y .. (g f)(kx1 ) = g(f(kx1 )) = g(kf(x1 )) = kg(f(x1 )) = k(g f)(x1 ): 4.2 erfullt. Y ) zu einem K-Vektorraum. und seien U X und V Y Unterraume. f g 3. ist trivial. K). also f(U) 6= . dann gilt fur x1 . Wegen (kf)(x + y) = kf(x + y) = k(f(x) + f(y)) = kf(x) + kf(y) = (kf)(x) + (kf)(y) ist De nition 3. Wir de nieren den Raum der linearen Funktionale auf X durch X = L(X.

Wir de nieren Bild (') = f(G) und den Bemerkung: f ist surjektiv . xi = xj + d =1 k xk mit geeigneten xk 2 K. Es folgt Pn x = 0. und die lineare Unabhangigkeit von ff(xd+1 ). Wegen 0 2 f 1 (f0g) folgt f 1 (f0g) = f0g. xd+1. 2 P k=d+1 k f(xk ) 2 L(ff(xd+1 ). Dann ist Bild (f) endlichdimensional und dim(Bild(f)) = dimX dim(ker(f)). Das Bild von F ist durch Bild (f) = f(X) de niert. Satz 1: Sei f : X ! Y eine lineare Abbildung. Dann folgt n=d+1 n xk 2 ker(f). n = dimX). f(xn )g ist bewiesen. Bemerkung: Ein Gruppenhomomorphismus ist genau dann injektiv. also y = f(x) mit x 2 X. wenn sein Kern aus dem neutralen Element besteht. Dann folgt aus x1. wenn ker(f) = f0g. Dann ist xi xj = d =1 k xk im k k Widerspruch zur linearen Unabhangigkeit von fx1 . : : :xd . f(xn)g) = Bild (f): P Sei y 2 Bild (f). f(f0g) = f0g. f(xn )g): P 21 . xdg eine Basis von ker(f) bilden. : : :. : : :. xdg eine Basis fur ker(f) und fx1. xng eine Basis von X (d = dim(ker(f)). : : :. : : :. was die Injektivitat von f zeigt. Beweis: Sei fx1. k k Pk Weil die fx1. f(xi ) = f(xj ) fur d + 1 i < j P Dann gilt: n. Insbesondere ist f genau dann injektiv. Sei ' : G ! H ein Gruppenhomomorphismus. Dann kann x als x = k=1 k xk mit xk 2 K dargestellt werden. Beweis: f injektiv ) jf 1 (f0g)j 1. also gilt auch d+1 = : : : = n = 0. De nition 5: Der Kern einer linearen Abbildung f : X ! Y ist durch ker(f) = f 1 (f0g) = fx 2 X j f(x) = 0g de niert. Es handelt sich dabei um Untergruppen. Sei ker(f) = f0g. 1).n::. : : :. da auch f(x1 x2) = 0. und sei X endlichdimensional. folglich x1 = x2. L(ff(xd+1 ). wenn dim(Bild (f)) = dim(X) gilt. also folgt = : : : = = 0 wegen der linearen 1 n k=1 k k k=1 k k Unabhangigkeit der xn. also x1 x2 2 ker(f). Fakt 5: f ist genau dann injektiv. d 2 K mit k=d+1 k xk = Pd x . f(xn )g hat n d Elemente und ist eine Basis von Bild (f). 2 damit x1 x2 = 0. Aus der Behauptung folgt: dim(Bild(f)) = n d = dimX dim(ker(f)) und der Rest ist trivial. : : :. Beweis der Behauptung: Angenommen. Es folgt f(x) = f( n X k=1 k xk ) = n X k=1 k f(xk ) = n X Lineare Unabhangigkeit: Angenommen n=d+1 k f(xk ) = 0. : : :. gibt es 1 .Kern von ' als das Urbild des neutralen Elementes von H (also 0 bzw. x2 2 X und f(x1 ) = f(x2 ). : : :. P xi xj 2 ker(f). xng. Behauptung: ff(xd+1 ). Man schreibt auch oft Im(f) statt Bild (f). Bild (f) = Y .

Ein Isomorphismus von Gruppen bzw. wenn sie dieselbe Dimension haben. Gruppen oder Korper sind isomorph. f ist ein Monomorphismus. Mit anderen Worten: fur jede naturliche Zahl n gibt es bis auf Isomorphie genau einen K-Vektorraum der Dimension n. Beweis: Wie bei Folgerung 1. wenn folgende Bedingungen erfullt sind: 1. Dann ist durch iB : K n ! 22 Warnung: Fur Epimorphismen von unendlichdimensionalen Vektorraumen gilt dieser Sachverhalt nicht.De nition 6: Ein Monomorphismus ist ein Homomorphismus von Gruppen bzw. B = (b1 . f ist ein Epimorphismus. Dann sind folgende Aussagen aquivalent: 1. welcher surjektiv ist. 3. wenn zwischen ihnen ein Isomorphismus existiert.(1) ^ (2): Ist gerade die De nition des Begri s Automorphismus. : : :. eines K-Vektorraumes X ist ein Homomorphismus. Beweis: (3). wenn ihre Dimensionen ubereinstimmen. 2. Beweis: Seien V und W endlichdimensionale K-Vektorraume. Zwei endlichdimensionale K-Vektorraume sind genau dann isomorph. (2) ) (1): Dies folgt aus Satz 1. K-Vektorraumen ist ein bijektiver Homomorphismus. Folgerung 1: (aus Satz 1) Sei f ein Endomorphismus eines endlichdimensionalen Vektorraumes X. f ist ein Monomorphismus oder ein Epimorphismus. Fakt 6: Eine lineare Abbildung zwischen endlichdimensionalen Vektorraumen f : X ! Y ist genau dann ein Isomorphismus. Ein Endomorphismus einer Gruppe. bn). Zwei Vektorraume.3 folgt Bild (f) = X und f ist ein Epimorphismus. eines Korpers bzw. dimX = dimY 2. Aus Fakt 4 in 2. bi 2 V . momorphismus und damit ein Isomorphismus. Korpern bzw. Ein Epimorphismus ist ein Homomorphismus von Gruppen. Aus Satz 1 folgt dim(W ) = dim(Bild(')) = dimV dim(ker(')) = dimV . (1) ) (2): Aus ker(f) = f0g folgt dim(Bild (f)) = dimX. f ist ein Automorphismus. welcher injektiv ist. welcher X nach sich selbst abbildet. von K- Vektorraumen. Fakt 7: Zwei endlichdimensionale Vektorraume uber K sind genau dann isomorph. dann ist die inverse Abbildung ebenfalls ein Ho- . 2 Bemerkung: Wenn f ein Isomorphismus ist. KVektorraumen. Sei weiterhin B eine geordnete Basis von V . Ein Automorphismus ist ein Endomorphismus welcher zugleich ein Isomorphismus ist. Korpern bzw.

mit f(xi ) = j =1 ij yj . Fur Y = KPm eine Basis (x1 . Insbesondere folgt: dimX = dimX. yn). also V ' W nach dem nachfolgenden Fakt. Dann gilt fur 1 k i=1 m: m X n n X X 0=( Aij )(xk ) = kj yj : ij Daraus und aus der linearen Unabhangigkeit der yj folgt ij = 0 fur 1 j m. xm ) und (y1 . denn es gilt fur x = m=1 k xk . Ein Isomorphismus X ' X la t sich auf kanonische Weise beschreiben: Folgerung 2: Fur jeden K-Vektorraum X sei die K-lineare Abbildung iX : X ! X durch iX (x)(l) = l(x) mit x 2 X. 2 Bemerkung: Ein Isomorphismus ' : V ! W uberfuhrt eine Basis B von V in die Basis '(B) von W.V . Es folgt dim(L(X. 1 i m. Also sind die Aij linear unabhangig. 2 i k Insbesondere X ' X und X ' X . P pruft Lineare Unabhangigkeit der Aij : Sei m j =1 ij Aij = 0 mit ij 2 K. m = dim(X). Y )) = dim(X) dim(Y ) 2. : : :. Y ): Sei f 2 L(X. Y ). x = m=1 ~k xk ~ k k Aij (x + x) = Aij ( ~ m X k=1 ( + ~)xk ) = ( i + ~ i )yi = Aij (x) + Aij (~): x Den anderen Teil der LinearitatsbedingungPn man analog. xm) duale Basis. V ' K dim V = k=1 K dim W ' W. es genugt also. so sind sie auch untereinander isomorph. l 2 X de niert. : : :. Dieser Isomorphismus bildet die Basis von X auf die duale Basis ihrer dualen Basis ab. Sei Aij : X ! Y de niert durch m X Aij ( k xk ) = i yj . P zu Linearitat der Aij : Dies ist leicht zu beweisen. n = dim(Y ). Die Aij Pn erzeugen L(X. : : :. . xm) von X bilden die linearen Funktionale i 2 und X mit i ( k=1 k xk ) = i eine Basis von X . : : :. iB ( 1 . 2 P Satz 2: 1. : : :. 1 j n. ein Isomorphismus von Vektorraumen de niert. (1) P beweisen. 23 P P k=1 k xk ) = n m XX j =1 k=1 kj k yj = n m XX j =1 k=1 akj Akj ( m X i=1 i xi ). Y ). also X ' X . Fur endlichdimensionale Vektorraume X ist iX ein Isomorphismus. 1 j n: Dann sind die Aij lineare Abbildungen und bilden eine Basis von L(X. k=1 Beweis: (2) ist o enbar ein Spezialfall von (1). Fur 1 i n gibt es ij 2 K. Seien X und Y endlichdimensionale K-Vektorraume mit geordneten Basen (x1 . die zu (x1 . Fakt: Wenn zwei Vektorraume beide zu einem dritten Vektorraum isomorph sind. n) = 1 k bk . Es folgt f( m X i=1 j =1 j =1 also f = n=1 m=1 kj Akj .

Dann ist f eine lineare Abbildung und es gilt f iX = iY f. : : :. : : :. xb) eine Basis von X. Unter Ausnutzung von Folgerung 2. um fur endlichdimensionale X. Sei die orthogonalen Komplemente von U und V . Y ) durch k ~ij (Pb =1 k xk ) = i yj de niert. : : :. ( 1. Fur 1 i b. welche A isomorph auf B abbildet: 8 l 2 V : x 2 A . also iX (xk ) = xk .h. so auch die lineare Abbildung L(X. selbst dann. so ist f ein Isomorphismus. Y ) erzeugen. Y ) ! L(U. Dies sind Unterraume U ? V ? X. Es gilt (f (iX (x)))(l) = (iX (x))(f (l)) = f (l)(x) = l(f(x)) = iY (f(x))(l): Weil das fur alle l gilt. d. Wenn (f(b1 ). xn) x ~ die dazu duale Basis von X . (x1 .h. zu jeder linearen Abbildung g : U ! Y gibt es eine lineare Abbildung G : X ! Y . l 2 Y de niert. P= dimY . Es gilt dann iX (xk )( l ) = kl = xk ( l ) fur alle l. b = dimX dimU. l(x) = 0 . : : :. geht f in f uber. 2 Folgerung 3: Sei U X ein Unterraum eines endlichdimensionalen Vektorraumes X. wenn U und V nur Untermengen sind. GjU = g. 2 De nition 7: Sei X ein endlichdimensionaler Vektorraum. xa ) eine Basis von U.n = dim(X). iX (x) 2 B: Fakt 9: Sei U X ein Unterraum. (x1 . f (l) = l f. : : :. (~1 . (x1. yc) eine Basis von Y . Fur 1 i a. f f Fakt 8: Fur eine lineare Abbildung X ! Y sei die duale Abbildung Y ! X durch (f (l))(x)) = l(f(x)) mit x 2 X. Es folgt Aij jU = Aij fur 1 i a. Da die Aij ~ A k L(U. n ) die dazu duale Basis von X . Beweis: Sei a = dimU. Y X mit X und Y mit Y zu identi zieren. Beweis: Sei l 2 Y und x 2 X. welche g fortsetzt. xn) eine Basis von X. f(bn )) eine geordnete Basis von Y ist. : : :. (y1 . da iX ein Isomorphismus ist. (iX (x))(l) = 0 . folgt nach Satz 2 die Behauptung. bn) eine geordnete Basis von X. Wenn Y endlichdimensional ist. 1 j c sei Aij 2 L(X. wobei iX und iY in Folgerung 2 de niert sind. Damit ist die letzte ~ ~ Behauptung gezeigt. Daraus folgt auch. Dann gilt: 24 . : : :. 1 j c sei Aij 2 L(U. Y ) c ~ durch Aij ( a=1 k xk ) = i yj de niert. Mit anderen Worten. f 7! f jU surjektiv. folgt f (iX (x)) = iY (f(x)). X und Bemerkung: Sei V X und A = fx 2 X j 8 l 2 V : l(x) = 0g = V ? X B = f 2 X j 8 l 2 V : (l) = 0g = V ? X : Dann ist iX : X ! X eine Abbildung. d. Fur U X und V X seien U ? = fl 2 X j 8 x 2 U : l(x) = 0g V ? = fx 2 X j 8 l 2 V : l(x) = 0g Beweis: Fur alle x 2 X ist iX (x) ein lineares Funktional auf X : iX : X ! X ist K-linear. : : :. Die dualen Basen sind durch 1 falls i = j ~ i (xj ) = ij = 0 falls i 6= j und xi( j ) = ij gegeben. Y ). denn es gilt folgender Fakt: Sei f : X ! Y eine lineare Abbildung und (b1 . 1 j c.

Dann gilt: (y) = (f(x)) = (f ( ))(x) = 0. 2 K (Diese Darstellung ist wegen y 62 Bild (f) eindeutig. n) ist eine Basis von U ? . 2. sind sie linear unabhangig. Sei V = Bild (f)+ k y Y . dim(U ? ) = dim(X) dim(U). folgt: k i (x) = d X k=1 k i (xk ) = d X k=1 k ik = 0 Also d+1 .) ist ein Funktional ' 2 V de niert. Sei y 2 Bild (f). Behauptung: ( d+1 . Aber dimU ?? = dim X dimU ? = dim X (dimX dimU) = dimU. Es gilt U U ?? . : : :. xn). u 2 Bild (f). folgt ' = ' und U ? = L(f d+1 . 25 . : : :. k 2 K. Beweis: 1. xn) gilt. Weil diese Elemente Teil einer Basis von X sind. eine Basis von X. denn fur u 2 U und 2 V ? gilt (u) = 0 nach der De nition von U ?. 2 P f Satz 3: Sei X ! Y ein lineare Abbildung zwischen endlichdimensionalen Vektorraumen. Sei 2 ker(f ). Beweis: Zum Beweis der ersten Aussage sei (x1 . ~ Also ist die Behauptung gezeigt. Fur d + 1 k n sei k = '(xk ). n 2 U ? . Sei ( 1 . : : :. ng). denn es gilt: { fur 1 l d: '(xl ) = 0 wegen ' 2 U ? und xl 2 U. Dann gibt es x 2 X mit y = f(x).1. also gilt u 2 U ?? . weiterhin '(xl ) = 0. Es gilt 2 ker(f ). n = dim X d = dim U. Also y 62 ker(f )? . Es folgt dimU ? = n d = dimX dimU. Bild (f) = ker(f )? . Sei umgekehrt y 62 Bild (f). Bild (f ) = ker(f)? . also y 2 ker(f )? . P Fur d + 1 i n und U 3 x = d =1 k xk mit k 2 K. also ~ '(xl ) = '(xl ). ~ { fur d + 1 l n: '(xl ) = l = Pn=d+1 k kl = Pn=d+1 k k (xl ) = '(xl ). ! ~ Sei ' 2 U ? . : : :. 2. n) die dazu duale Basis von X . Dann gilt (y) y=V '(y) = '(0 + 1 y) = 1. Dann gilt: 1. Durch '(v) = fur v = u + y. : : :. Nach Folgerung 3 2 gibt es ein Funktional 2 Y mit jV = '. ~ k k Weil dies fur alle Elemente der Basis (x1. Dann gilt fur ' = n=d+1 k k = ' 2 k L(f d+1 . xd) eine geordnete Basis von U und sei (x1. also U ?? = U. ng). : : :. U ?? = U. : : :. : : :. denn fur alle x 2 X gilt ) (f ( ))(x) = (f(x)) f (x=2V '(f(x)) = '(f(x) + 0 y) = 0: Also 2 ker(f ) und (y) 6= 0.

n. Rang (f) 2 oder rank (f). C oder A = (aij )m n=1: . K) erhalt die Struktur eines K-Vektorraumes wie folgt: { (aij )m n=1 = ( aij )m n=1 ..2. Die zweite Gleichung folgt durch Anwendung der ersten Gleichung auf f und durch Anwendung von Fakt 8: Bild (f ) = ker(f )? = ker(f)? : 2 Folgerung 4: In der Situation von Satz 3 gilt: dim(Bild(f)) = dim(Bild (f )): Beweis: dim(Bild(f)) Satz 3 dim(ker(f )? ) Fakt 8 dim(Y ) dim(ker(f ) = = Satz 2. i=1 j i=1 j m n + (~ij )m n = (aij + aij )m n { (aij )i=1j=1 a i=1 j=1 ~ i=1 j =1 Die aij nennt man Matrixkoe zienten. A am1 am2 amn Mat (m. i=1 26 . Die Dimension des Bildes von f nennt man auch den Rang von f. .. B . 3. Mat (m. K) ist die Menge aller m n-Matrizen von Elementen aus K.2 dim(Y ) dim(ker(f )) Satz 1 dim(Bild(f )) = = f De nition 8: Sei X ! Y eine lineare Abbildung zwischen endlichdimensionalen Vektorraumen. n Spalten und Eintragen aus K: 0a a 1 a1n 11 12 B a21 a22 a2n C A = B . 3 Matrizen Sei K ein Korper...1 Matrizenrechnung De nition 1: Eine m n-Matrix A ist ein rechteckiges Schema mit m Zeilen. C i=1 j @ . Fur 1 i m ist (aij )n=1 2 K n der i-te Zeilenvektor der Matrix und fur 1 j n j ist (aij )m 2 K m der j -te Spaltenvektor. n.

0 1 .. n. und umgekehrt ist diese Darstellung eindeutig. n. . Die Dimension dieses Unterraumes von K m nennen wir den Spaltenrang von A.. namlich (2 0 5) und ( 3 1 7) und drei Spaltenvektoren 2 .) Daher stimmt das Bild von A mit der linearen Hulle der Spaltenvektoren von A uberein. K m )). ij Beweis: Fur 1 i m und 1 j n sei A(ij) die Matrix (a(kl ) )m. aij 2 K.. . 2 Fakt 2: Sie A 2 Mat (m. (Analog dazu ist der Zeilenraum Unterraum von K n . B.. die betrachtete Abbildung ist also injektiv und damit auch bijektiv. wobei k. . . da A ej der j-te Spaltenvektor von A ist. A. De nition 2: Sei A 2 Mat(m. @. wie beim Beweis von Fakt 1 de niert. n. B = 3 1 3 . Aus A = 0 folgt bei Anwendung auf den Vektor ej = ( ij )n=1 2 K n 0 = A ej = (aij )m (=j-te Spalte von A). n. .n . xi 2 K. da die aij mit den Matrixkoe zienten von A ubereinstimmen. . Also bilden die m n Matrizen A(ij ) . K m ) A 7! A ist ein Isomorphismus von K-Vektorraumen. 2 27 i=1 j =1 . Der Operator der Multiplikation mit A A ist eine lineare Abbildung A : K n ! K mn P A (xi )n=1 = ( j =1 aij xj )m i=1 i m n . Weil dies fur alle j mit 1 j n gilt. 0 0 0 . K) und sei ej 2 K n. 3. 1 j n. 0 1 C C C C C C A i-te Zeile j-te Spalte : O enbar bilden die A(ij ) eine Basis von Mat(m. .Beispiel: A = 2 3A = 2 0 5 . Wir haben gesehen. B . K) und dim(Mat (m. IR ) 3 0 8 7 2 1 7 4 0 10 5 1 8 3 3 1 2 14 .j ) () A= dargestellt werden. . Daher genugt es. B 2 Mat(2. 0 . sie stimmt mit der maximalen Anzahl linear unabhangiger Spaltenvektoren uberein. K) ! L(K n . 5 7 .j = B 1 kl B. die Injektivitat der betrachteten Abbildung zu zeigen. .. . 1 j n. n. K). denn jede m n-Matrix A = (aij )m n=1 i=1 j kann als m X n X aij A(i. K). Also i i=1 gilt a1j = : : : = amj = 0. A + B = 3 9 14 3 3 2 2 3 2 A hat zwei Zeilenvektoren. 1 i m. . K)) = m n = dim(L(K n .. eine Basis von Mat (m. d. B0 1 falls a(ij ) = 0 sonsti = k und j = l . Ai. Der von diesen Vektoren erzeugte Unterraum von K m (das Bild von A) ist der Spaltenraum von A.h. mit A = (aij )i=1 j =1 Fakt 1: Die Abbildung Mat(m. weil aus ( ) folgt. n.l=1 00 0 B . folgt A = 0.

x 2 K o . n. Fakt 3: Die Matrizenmultiplikation entspricht der Hintereinanderausfuhrung linearer Operatoren. n. A @ Pn . B = i=1 j (bjk )n=1 o =1. B A ist nicht de niert.Matrix au a t. Es gelten fur die Matrizenmultiplikation auch die beiden Distributivgesetze ~ ~ (A + A)B = AB + AB ~ ~ A (B + B) = AB + AB 28 . K) k=1 de niert. am1 amn xm j =1 amj xj " Schema von Falk \ 01 2 31 Mat (2.. 3. K). ist es auch die Matrixmultiplikation: aus A 2 Mat (m.Q) 3 B = @ 4 0 0 A 4 5 6 0 5 0 01 2 31 @4 0 0A 1 2 3 4 5 6 A B= 0 5 0 9 17 3 24 38 12 9 17 3 24 38 12 . p. d. so gilt A (B x) = (A B) x. denn 0n 1m 0 n o 1 X X X Am A (B x) = @ aij (Bx)j A = @ aij bjk xk j =1 i=1 1 j =1 k=1 i=1 0o 0n 1 m X @X = @ aij bjk A xk A = (AB) x k=1 j =1 i=1 Weil die Hintereinanderausfuhrung von Abbildungen assoziativ ist. K). Q) 3 A = 1 2 3 Mat (3. K) und B 2 Mat (n.. o. o. .De nition 3: Sei A 2 Mat (m.h. A . . C 2 Mat (o. C: @ . p. fur A 2 Mat(m. B 2 Mat (n. . o. K). Beispiel 1: Sei Bemerkung 1: Wenn man in De nition 2 den Vektor x als n 1. n. K) folgt A (B C) = (A B) C 2 Mat (m. B 2 Mat (n. Das Produkt A B ist durch die Matrix j k 1m 0n X A B := @ aij bjk A j =1 i=1 o 2 Mat (m. A = (aij )m n=1 . 3. K).1 C = B j=1... C B . A @ . K). . so umfa t De nition 3 De nition 2: 0a 1 0 x 1 0 Pn a1j xj 1 a1n 11 B . K). o.

Sei U ! V eine lineare Abbildung. d. n.B (g): ^ ~ ^ ~ Beweis: 1. ~ ~ 2. Sei V ! W eine lineare Abbildung.( A)( B) = ( )(AB). m = dim(W). i In den Bezeichnungen von De nition 4 gilt: fiB = iB (MatB. xn) = n=1 xi bi de niert. B = (~1 . K) nennen wir die Ma- Beispiel 2: Mat (e1. ^o ) eine Basis von U.B (f) ~ ~ durch die Bedingung f(iB (x)) = iB (Mat B. (Auf diese Weise erhalt man eine inverse Abbildung zu dem in Fakt 1 betrachteten Isomorphismus.B (f) ). K) f 7! Mat B. K).B (f) ~ ist ein Vektorraumisomorphismus. : : :. bn) von V sei iB (x1 . : : :. bn) eine geordnete Basis von f ~ b V . : : :. n.B (f g) = Mat B.en )(e1 . Weil iB und iB Isomorphismen sind. Die Matrixdarstellung von A : K n ! K m bezuglich der Standardbasen ist A.:::.h. Die Matrix (aij )m n=1 i=1 j = i=1 Mat B. B = (b1. n. ist der Operator der Multiplikation mit Mat B.B (f) ~ m X ~ aij bi ~ trixdarstellung von f bezuglich B und B. namlich ^ ~ Mat B. .) Fakt 4: P 1. W ) ! Mat (m. Die Abbildung L(V. 2 Mat (m. iB A = fiB . ~m ) eine geordnete Basis von W. ~ ~ n K? ? iB y V A ! Km ? ?iB y~ f ! W A = Mat B. B = (^1. : : :. 2 K: Dagegen gilt das Kommutativgesetz fur Matrizen nicht. Fur eine geordnete Basis B = (b1 .B (f) x = iB1(f(iB (x))): ~ ~ 29 .B (f) kommutiert.B (f) x) bestimmt. : : :. g ^ b 3. aij 2 K durch i=1 j f(bj ) = de niert.:::. und b sei (aij )m n=1. selbst wenn beide Seiten wohlde niert und vom gleichen Typ sein sollten: 0 0 0 1 = 0 0 aber 0 1 0 0 = 0 1 : 0 1 0 0 0 0 0 0 0 1 0 0 und De nition 4: Sei n = dim(V ). dann gilt b Mat B.B (f) Mat B.em ) (A ) = A fur A 2 Mat (m.

m. Nach Fakt 1 gibt es eine Matrix B mit g(x) = B x. Es gibt B 2 Mat (m. W ) ist durch K(g) = iB g iB1 gege~ ben. K).. diese Gleichung nachzurechnen: ~ ~ sei Mat B. k. K) ! L(K m . Dann gilt: ~ i j =1 0m 1 n 0m 1 X A X @X A ~ f(iB (x1 . 2 2. C = ( ij )m m : @ A i=1 j =1 0 ::: 1 1 0m X Am = (xi )m .. Die Behauptung folgt.B (f) = (aij )n=1 m .B (f) Mat B.B (f) y)) ^ ^ ^ = iB (Mat B. K n) ! L(V.. Y 2 Mat (n. K): (3))(1) und (2): Sei x ! f(x) = A x bijektiv und sei g die inverse Abbildung. K n). Es gibt C 2 Mat (m.B (g) erfullt die unter (1) angegebene Bedingung ~ ^ fur die Matrixdarstellung von f g. 3. und eine inverse Abbildung K : L(K m . denn die Hintereinanderausfuhrung von Isomorphismen ist ein Isomorphismus. K) mit CA = 1m .B (f) selbst eindeutig durch die Bedingung f(iB (x)) = ~ iB (Mat B. Mat B. xm)) = f @ xj bj = aij xj bi j =1 i=1 j =1 = iB Mat B. m.. Nach (1) ist die Abbildung f 7! Mat B. Dann gilt nach Fakt 3: (AB) x = A(B x) = A(g(x)) = f(g(x)) = x = 1m x: 30 . ist bijektiv. x 7! Ax. X 2 Mat (m.B (f) (Mat B. Es gilt fur y 2 K o (f g)(iB (y)) = f(g(iB (y))) = f(iB (Mat B. Durch Fakt 5: Sei A 2 Mat (m. Dann sind folgende Bedingungen aquivalent: 1. die Behauptung folgt nun aus (1). Die lineare Abbildung K m ! K m .B (g))y): ~ ~ ^ Mit anderen Worten.B (f) x) bestimmt. K n ) I(f) = iB1 f iB ~ ist ein Isomorphismus I von Vektorraumen. 1m X = X und Y 1m = Y. 3. m. . m. W ) ! L((K m . denn die Linearitat von I ist leicht nachprufbar. . m.B (f) x ~ ~ I L(V. denn 1mx = @ ij xj i=1 auch j =1 i=1 2. Allgemein gilt Beweis: Es gilt 1m x = x fur x 2 K m .B (g) y)) ~ ~ ^ = iB ((Mat B. K). K) mit 0 1 ::: 0 1 AB = 1m = B .B (f) die Verknupfung von I mit dem Inversen ~ des in Fakt 1 betrachteten Isomorphismus Mat (n.Nach Fakt 1 ist daher auch Mat B.B (f) Mat B. : : :. . Es verbleibt. .

Seien U ! V ! W lineare Abbildungen.B00 (f) Mat B. Es folgt Spaltenrang(CAB) =Spaltenrang(AB) =Spaltenrang(A). eine Gruppe. W.B (Id V Id V ) ~ ~ ~ ~ = Mat B. B 2 GLm . wobei Bild (AB) der Spaltenraum von AB und Bild ((CAB) ) der von CAB ist. da A ein Monomorphismus und damit ein Isomorphismus ist. Also ist der Endomorphismus A des endlichdimensionalen Vektorraumes K m ein Epimorphismus und damit auch ein Isomorphismus und (3) folgt. Sei ~ namlich V m-dimensional und seien B.B (Id V ): ~ ~ Fakt 7: Sei A eine m n-Matrix. 2. falls sie die aquivalenten Bedingungen von Fakt 5 erfullt. Bemerkung: Die Gruppenaxiome fur GLm rechnet man leicht nach. (1))(3): Sei AB = 1m . Fur alle x 2 K m folgt x = 1m x = (AB)x = A(Bx) 2 Bild (A ).3 folgt Mat B0 . (2))(3) Praktisch genauso: aus CA = 1m folgt. m. Genauso leitet man B A = 1m aus der Tatsache her. Beweis: Es gilt wegen der Bijektivitat von B Spaltenraum(AB) = Bild (AB) = Bild (AB ) = Bild (A ) = Spaltenraum(A): Weil C ein Isomorphismus ist. dann ist Aut (V ) ! GLm (K) f 7! Mat B. Aut (V ) sei die Menge der Automorphismen von V . 3. 2 De nition 5: Sei K ein Korper. Dann stimmen die Spaltenraume von A und AB bzw. Sei GLm (K) Mat (m.3 folgt Mat B. das Einselement ist 1m . K) nennen wir invertierbar. 1. K) die Menge aller invertierbaren m m-Matrizen. A und CAB uberein. versehen mit der Hintereinanderausfuhrung von Automorphismen als Gruppenoperation eine Gruppe. da g linksinvers zu f ist. Eine Matrix A 2 Mat (m. Beweis: folgt leicht aus Fakt 4. 2 Bemerkung: Invertierbare m m-Matrizen konnen auch beim Basiswechsel entstehen.B (Id V ) Mat B0 .B (Id V ) = Mat B.B (g). B 0 und B 00 geordnete ~ Basen von U bzw.B00 (g) = Mat B.B (Id V ) 2 GLm . ~ ~ Mat B. de niert er einen Isomorphismus Bild (AB) 7! Bild (C (AB) ) = Bild ((CAB) ). m. C 2 GLn.B (g) = Mat B. diese wird. Aus Fakt 4.B (Id V ) Mat B.B (f) g f Es folgt Mat B. 2 ein Gruppenhomomorphismus. Fakt 6: Sei B eine Basis des m-dimensionalen K-Vektorraumes V . versehen mit dem Matrizenprodukt.Aus Fakt 1 folgt A B = 1m .B (Id V ) = 1m : ~ ~ 31 . Sei V ein K-Vektorraum. Aus Fakt 4. B Basen von V .

B (f).B (f) = A. bn) ~ b eine geordnete Basis von V .n m Matrix AT = (aji )n=1 m . B = (~1. Folgerung 2 und Fakt 7 folgt. Fakt 3 und Fakt 8 folgt: (AB)T = B T AT : Dies konnte man leicht direkt nachrechnen! Folgerung 2: Die transponierte Matrix einer invertierbaren Matrix A ist invertierbar. bij = aji. B = (b1 . De nition: Der Zeilenraum bzw.B (f)T : ~ ~ Beweis: Sei A = Mat B. AT = B. -rang von AT . Folgerung 3: Der Spalten. : : :. ~m ) eine Basis von W. -rang von A ist der Spaltenraum bzw. ~ Beweis: Es gibt Vektorraume V und W mit Basen B und B und eine lineare Abbildung f : V ! W mit Mat B. Aus Folgerung 1 folgt. j i=1 De nition 6: Die transponierte Matrix einer m n Matrix A = (aij )m jn=1 ist die i=1 Beispiel: 0 1 2 3 1T 01 4 71 @ 4 5 6 A = @ 2 5 8 A: 7 8 9 3 6 9 f Fakt 8: Sei V ! W eine lineare Abbildung endlichdimensionaler Vektorraume. x 2 K dim V : ~ 32 . n ) die zu B b ~ ~ duale Basis von V . und (AT ) 1 = (A 1 )T . B = ( ~1 . Bemerkung: Aus Folgerung 1. Dann gilt: ~ f(iB (x)) = iB (A x).8 ((fg) = g f ). ~m ) die zu B duale Basis von W . Dann gilt Mat B . : : :.und der Zeilenrang einer Matrix A stimmen uberein. a = (aij )n=1 m=1 . also Mat B . da (A 1 )T tatsachlich die inverse Matrix zu AT ist. B = ( 1 .4. da sich der Zeilenrang einer Matrix bei Multiplikation mit einer invertierbaren Matrix nicht andert. : : :. : : :.B (f ) = B = AT : ~ i=1 i=1 2 Folgerung 1: Aus Fakt 2. Es gilt ~ i j i=1 XX ~ X X ali i bl ) (f ( ~j ))( i bi )) = ~j ( i bi ) = ~j (f( m m m n i=1 = = Es folgt: m m m n XX i=1 ali i jl = aji i i=1 l=1 i=1 m m X X aji i ( k bk ) i=1 k=1 m X i=1 l=1 X X f ( ~j ) = aji i = bij i .B (f ) = Mat B. B = (bij )m jn=1 .

2 De nition 8: Man nennt den Spaltenrang (=Zeilenrang) einer Matrix A den Rang von A und schreibt Rang (A) oder rank (A).Weil iB und iB Isomorphismen sind. = . K) A 7 ! AT ist ein Isomorphismus von Vektorraumen...4. dann gilt: f Bemerkung 1: Sei V ! W einer lineare Abbildung zwischen endlichdimensionalen Vek- 2. K) ! Mat(n. De nition 1: Eine m n-Matrix A ist in Zeilenstufenform..5. Fur i r gilt aiji 6= 0 und aij = 0 fur j < ji . damit folgt die Behauptung.2 Das Eliminationsverfahren von Gau . 2.B (f)): ~ Dies folgt aus dem Beweis von Folgerung 3. d. . + + . 33 3. falls eine Zahl r 0 und Zahlen 0 < j1 < j2 < : : : < jr n existieren. rang (A) = n Bemerkung 2: Die Abbildung Mat (m. Dann ist die Gleichung A x = b fur x 2 K n aquivalent zu den m Gleichungen in Pn a i=1 = b fur 1 i m. K: i=1 ij xj j a11x1 + a12 x2 + + a1nxn = b1 a21x1 + a22 x2 + + a2nxn = b2 . gegebenenfalls der Berechnung ihrer inversen Matrix oder der Au osung linearer Gleichungssysteme. so da folgende Bedingungen erfullt sind: 1. am1 x1 + am2 x2 + + amn xn = bm Die Menge der b 2 K n . aij = 0 fur i > r. . . Dieses Verfahren dient der Bestimmung des Ranges einer Matrix. + . so folgt: Zeilenrang(A) = Spaltenrang(AT ) = dim(Bild (AT )) = dim(Bild(f )) = dim(Bild (f)) nach Folgerung 2. n. wenn ihr Rang gleich n ist.8 rang (f) Def= dim(Bild (f)) = rang (Mat B. torraumen. Also gilt: Spaltenrang(A) = dim(Bild(A )) = dim(Bild (f)). Es gilt (AT )T = A. . dim(Bild (A )) = n . Wenn man denselben ~ Sachverhalt aus f und die Basen B und B anwendet. stimmt mit dem Bild von A (=Spaltenraum von A) uberein. m.4. fur die diese Gleichungen eine gemeinsame Losung haben. In der Tat gilt: A invertierbar . de niert iB einen Isomorphismus des Bildes von A auf das ~ ~ Bild von f. A : K n ! K n ist bijektiv . Eine n n Matrix A ist genau dann invertierbar. Sei A = (aij )m jn und i=1 =1 sei b = (bi )m .. A : K n ! K n ist surjektiv .h.

Sie bilden daher eine Basis des Zeilenraumes. @ 1 2 3 A. j1 = 1. . : : :. jr g. und der Zeilenrang ist r.toren linear unabhangig. j3 = 3 0 0 9 Die folgenden Matrizen sind nicht in Zeilenstufenform: 0 1 1 3 . Seien xjk+1 . Fakt 2: Sei A eine m n -Matrix in Zeilenstufenform und b = (b1 . so sind ihre von 0 verschiedenen Zeilenvek- 1 2 3 r = 2. wenn r = n gilt. so ist diese durch Vorgabe der freien Variablen eindeutig bestimmt. j2 = 3 0 0 7 01 2 31 @0 0 7A r = 2. wenn bi = 0 fur i > r gilt. : : :. und der Zeilenrang ist r. Die Variablen xi mit i 62 M nennen wir frei. j2 = 3: 0 0 0 Sei b = (b1. so ist die genau dann eindeutig. P 0 = r =1 k (aki)n=1 und nicht alle k 2 K sind 0. Sei M = fj1 . wenn keine freien Variablen existieren. bm ) 2 K m: Das lineare Gleichungssystem A x = b hat genau dann eine Losung x 2 K n . Beweis: Die Zahlen 1 j1 < j2 < : : : < jr n seien wie in De nition 1 gewahlt. Die von 0 verschiedenen Zeilenvektoren sind also linear unabhangig. m = n = 3. Die gebundenen Variablen konnen aus den freien wie folgt berechnet werden: Pn a x 1 1. b2. Das Gleichungssystem hat dann die Gestalt: 7x1 + 6x2 + 5x3 = b1 7x1 + 6x2 + 5x3 = b1 0x1 + 0x2 + x3 = b2 ) x3 = b2 0x1 + 0x2 + 0x3 = b3 0 = b3 k=1 k akjk0 = r X k=k0 k akjk0 = k0 ak0 jk0 6= 0 P 34 . j2 = 2. Beispiel: (rationale Koe zienten) 07 6 51 @ 0 0 1 A .h. j1 = 1. : : :. Insbesondere bilden diese Vektoren eine Basis des Zeilenraumes. j1 = 1. jn = 1. xjr = arjr br xj frei. Angenommen. r = 2. 0 0 0 : 0 0 1 4 6 1 2 3 0 5 6 Beispiel: Die folgenden Matrizen sind in Zeilenstufenform: im Widerspruch zu unserer Annahme. Wenn eine Losung des untersuchten Gleichungssystems existiert. Seien 1 = : : : = k0 1 = 0 und k0 6= 0: i k Dann ist der jk0 -te Koe zient der untersuchten Summe r X Fakt 1: Wenn A eine Matrix in Zeilenstufenform ist. d. j =jr +1 rj j n 1 2. j2 = 3 0 0 0 01 4 71 @0 5 8A r = 3. wobei r dieselbe Bedeutung wie in De nition 1 hat. dann gilt: xjk = arjk bk j =jk +1 akj xj xj entweder frei oder gebunden und bereits berechnet: Insbesondere gilt: wenn eine Losung existiert. xjr bereits bestimmt. b3) vorgegeben.

dann bilden die A si. In diesem Fall kann die Bestimmung der inversen Matrix dann durch Au osung von A si = ei . uberein. Beweis: Sei A eine m m-Matrix und sei si der i-te Spaltenvektor von B. zu unserer Vorschrift zur 1 fur j < jk ) zu xjk = akjk bk j =jk+1 kj j Bestimmung der gebundenen Variablen aus der freien.Gl) 40 (1.Gl) (2. die Spaltenvektoren von A B. wenn r = m gilt.Gl) (1. wenn eine Losung existieren soll. Daher ist A B = 1m aquivalent zu A si = ei (denn der i-te Spaltenvektor von 1m ist ei ). d. Beispiel: 0 1 0 80 1 1 0 a b c 1 0 1 0 1 @ 0 23 46 A = @ d e f A = @ 0 23 0 0 2 g h i 0 1 + 80g = 1 g = 0 23d 46g = 0 =) d = 0 2e = 0 a = 1 b + 80h = 0 23e 46h = 1 2h = 0 c + 80i = 0 23f 46i = 0 2i = 1 =) =) 35 0 1 2 (3. also mu r = m sein. Nach Fakt 2 ist seine Dimension r. Fakt 3: Eine m m-Matrix A in Zeilenstufenform kann genau dann invertiert werden. Beweis von Fakt 2: Die k-te Gleichung des betrachteten Systems lautet: n X j =1 akj xj = bk : Fur k > r verschwinden alle akj .Gl) 40 1 1 A h = 0 (3. und unsere Formeln lauten: x3 = b2 x1 = b1 6x72 5x3 = b1 6x2 5b2 : 7 Auf diese Weise erhalt man in der Tat Losungen des Gleichungssystems (falls b3 = 0). In diesem Fall sind die Gleichungen fur die si nach Fakt 2 eindeutig losbar. ej = ( ij )m i=1 nach si erfolgen. Dann ist genau die Variable x2 frei.Gl) 1 2 . Fur i > r wird diese Gleichung nach Fakt 2 unlosbar.Es kann nur losbar sein. also mu bk = 0 sein. Die letzte Behauptung ist klar. Die Notwendigkeit unserer Bedingung fur die Losbarkeit ist somit bewiesen. wenn b3 = 0.Gl) b = 0 (1. dann sind die letzten m r Gleichungen (die k-te mit r < k m) automatisch P P erfullt. Insbesondere haben wir einen neuen Beweis fur Zeilenrang = Spaltenrang fur Zeilenstufenmatrizen gefunden. 2 Bemerkung 1: Der Spaltenraum von A stimmt mit der Menge aller b. Fur 1 k r ist die k-te Gleichung bk = n=1 akj xj = n=jk akj xj (denn akj = 0 j j Pn a x aquivalent. 1 i m. si ist dann der i-te Spaltenvektor von A.Gl) 1 e = 23 (2. wenn A invertierbar sein soll.h. fur die A x = b losbar ist. 1 i n. Damit sind sowohl die Hinlanglichkeit als auch unsere Beschreibung der Losungsmenge veri ziert.Gl) 1 (2. Wenn sie erfullt ist.Gl) i = f = c = (3.

. . j k = i. durch (Tij A)x = Tij b oder (Eij ( )A)x = Eij ( )b) in der Tat das behauptete bewirkt.1.. Die Behauptung uber das Inverse von Tij und Eij ( ) sind ebenfalls leicht nachzurechnen.7 und Folgerung 3.j) m B C = (ekl ( ))k. Tij = B .. . C B C 8 k=l B C 1 ::: B C (i.. . Addition des Vielfachen einer Zeile zu einer anderen Zeile..1. B . Beweis: Es ist leicht zu sehen. ebenso die Behauptung uber den Spaltenrang. C B . . .De nition 2: Eine elementare Zeilentransformation einer Matrix A bzw. ... Die Behauptung uber den Zeilenraum und den Zeilenrang folgt aus Fakt 3. C B. j-ten Spalte... l = j i. 2.. . l = j k = j.j) m C = (tkl )k. . . . .. B B 0 ::: 1 B B 1 0 B 0 0 ::: 0 1 Addition des -fachen der i-ten Zeile auf die j-te.. 2 36 B B B @0 1 C C C C C C 81 C > C C (i.j .. i 6= j: 0 1 ::: ::: 0 1 B . C . . von Ax = b) durch Tij A oder Eij ( )A (bzw. Spaltenrang oder den Zeilenraum. des Gleichungssystems Ax = b ist eine der folgenden Transformationen: 1. . . B C : 0 sonst B C 0 ::: 1 B.l=1 mit e(kl )( ) = < 1 k = i. Sei B invertierbar mit inverser Matrix B 1 . 0 C A 0 0 0 k = l 6= i. C >1 :0 C C C C C 1 C .1. Fakt 4: Eine elementare Zeilentransformation ist die linke Multiplikation von A oder Ax = b mit einer der invertierbaren Matrizen Zeilenvertauschung: 01 0 ::: B 0 .j . . Vertauschung zweier Zeilen in A bzw.. in Ax = b.l=1 mit t(kl ) = < 1 i. Aus Ax = b folgt (BA)x = B(Ax) = Bb und aus (BA)x = Bb folgt Ax = 1m Ax = (B 1 B)Ax = B 1 ((BA)x) = B 1 (Bb) = b Damit andert sich die Losungsmenge nicht. 2 K. l = i sonst . B B B 1 B B 0 1 B B 1 ::: 0 B .. Eij ( ) = B C . da das Ersetzen von A (bzw. A 0 ::: ::: 1 steht in der i-ten Zeile.. .. . Weiterhin gilt 2 Tij = 1m und Eij ( ) Eij ( ) = 1m : Insbesondere andert eine solche Umformung weder die Losungsmenge eines linearen Gleichungssystems noch den Zeilenrang bzw. C @.

Setze p akj1k . Andernfalls sei jk = minfj j 9 i : k i m. konnen wir erreichen.B. Wenn k = m gilt. 5. j1 = 2). 2. Fur 1 i k gilt aiji 6= 0 und aij = 0 fur j < ji . so liegt die Matrix sogar in vollstandiger Zeilenstufenform mit r = k 1 vor und das Verfahren bricht ab. wenn A ist in Zeilenstufenform und r = m (r gema De nition 1). Wenn aij = 0 fur k i m und 1 i m gilt. ordnet x y=3 x ein Drittel der Variablen y zu. 0 k m. Fur k < i m und 1 j jk gilt aij = 0. Wir mochten nun den Eliminationsalgorithmus von Gau beschreiben. 2. Hier ist akjk 6= 0. gilt jk > jk 1 (= 0 fur k = 1). durch die bestimmten Variablen bestimmte Werte (in unserem Fall naturliche Zahlen oder Elemente von K) zugeordnet werden. Eine Matrix A ist in m-Zeilenstufenform genau dann. Da die Matrix bereits in (k 1)Zeilenstufenform vorliegt. 37 . Uberfuhrung einer Matrix A 2 Mat (m. 3. Sei l (eine naturliche Zahl. Wir schreiben x Ausdruck. Beispiel 3: 0 0 0 0 0 sind in 1-Zeilenstufenform (j1 = 1 bzw. K) oder des Gleichungssystemes Ax = b oder von Ax( ) = b( ). Genauer gesagt: (a) Setze q paijk . Fur alle i mit k < i m fuhre man folgende elementare Zeilenumformung durch: Multiplikation der k-ten Zeile mit p aijk und Addition des Ergebnisses zu der i-ten Zeile. da akjk = k-tes Pivotelement 6= 0.De nition 3: Eine m m-Matrix A = (aij )m n=1 ist in k-Zeilenstufenform. Generell besteht ein Algorithmus aus einer Folge von Anweisungen. b( )). Indem wir die l-te mit der k-ten Zeile vertauschen (sowohl in A als auch. k 1. aij 6= 0g. A ist nun in k-Zeilenstufenform. sind wir fertig. 1 r in Zeilenstufenform: 1. z. so da folgende Bedingungen erfullt sind: 1. Andernfalls setzen wir k k + 1 und gehen zu Schritt 2 zuruck. A ist in Zeilenstufenform vom Rang r genau dann. n. falls gegeben in b bzw. 4. Jede Matrix liegt in 0-Zeilenstufenform vor. 00 1 2 3 01 01 2 3 1 B0 0 7 1 0C @ 0 8 9 A und B 0 0 8 9 0 C A @ 0 7 10 falls der Variablen x der Wert von Ausdruck zugeordnet wird. An dieser Stelle liegt die Matrix A in (k 1)-Zeilenstufenform vor. so da k l m gilt und aljk 6= 0). wenn A in r-Zeilenstufenform ist und fur r < k m die k-te Zeile verschwindet. (b) Fur jk j n setze aij aij qakj . aljk ist das k-te Pivotelement. i=1j falls Zahlen 0 < j1 < j2 < : : : < jk m existieren.

Bestimme eine Basis des Zeilenraumes der transponierten Matrix. denn 1 = l. Bemerkung: Da fur Zeilenstufenmatrizen Zeilen.und Stufenrang ubereinstimmen und elementare Zeilentransformationen beide Range nicht andern.Beispiel 4: 0 1 1 2 1 011 @ 30 30 63 A x = @ 1 A 14 16 37 1 (1) k 1 (2) l 1. 01 1 21 0 1 k (4) @ 0 0 3 A x = @ 29 A (5) k 2. g : IN ! IR Funktionen. Zeile. 3 De nition: Seien f. Durch Au osung von Asi = ei . Die si bilden (falls sie existieren) die Spalten der inversen Matrix A 1. da f die Wachstumsordnung O(g(n)) hat. Uberfuhrung der Matrix durch elementare Zeilentransformationen in Zeilenstufenform. was uber ussig ist. 01 1 21 0 1 1 @ 0 2 3 A x = @ 13 A 0 0 3 29 (4) In diesem Fall mu nur noch die dritte Zeile durch Subtrahieren des 0-fachen der 2. Fakt 3). Andernfalls ist die m m-Matrix A nicht invertierbar (vgl. falls eine Konstante c > 0 und ein n0 2 IN existieren mit Bestimmung einer Basis des Spaltenraumes: Bestimmung einer Basis des Zeilenstufenraumes: Bestimmung der inversen Matrix: jf(n)j c g(n) fur alle n n0 : 38 . Ablesen des Ranges der dabei erhaltenen Zeilenstufenmatrix. Bestimmung des Ranges einer Matrix: Au osung linearer Gleichungssysteme: Uberfuhren in Zeilenstufenform mittels elementarer Zeilentransformationen. Man sagt. haben wir auch einen neuen Beweis dafur gefunden. Zeile korrigiert werden. l 3 (3) Vertausche die 2. Die Matrix ist in Zeilenstufenform und der Algorithmus bricht ab. Uberfuhrung in Zeilenstufenform. zuruck zu 2 0 2 6 13 (2) j2 2. jk 1 Das Pivotelement ist a11 = 1 (3) bewirkt weiter nichts. Fakt 5: Die Uberfuhrung einer m m Matrix in Zeilenstufenform nach dem beschriebenen 2 Algorithmus kostet m3 + O(m2 ) Multiplikationen und Subtraktionen. Anwendung des in Fakt 2 beschriebenen Verfahrens auf das umgeformte System. und 3. Die von 0 verschiedenen Zeilenvektoren des Ergebnisses bilden eine Basis des Zeilenraumes (Fakt 4 und Fakt 1). da Zeilenrang = Stufenrang.

Man schreibt eine Permutation 2 Sn oft als die zweizeilige Matrix: 1 2 n (1) (2) (n) : Zum Beispiel ist 1 2 3 die Permutation mit (1) = 3. j)(x) = : j i x=i Man nennt (i. Fortran. Fakt 1: 1. Vetterling: Numerical 4 Determinanten und multilineare Algebra 4. Flannery. : : :. 3 1 2 De nition 1: Fur zwei verschiedene Elemente i. (3) = 2. Fur n > 1 betrachten wir Sn 1 als die Untergruppe n 1 () f 2 Sn j (n) = ng Sn . Teukolsky. Es verbleibt der Beweis von ( ). sei 2 Sn . n)Sn 1 folgt (n) = j 6= n. ( ) impliziert j =1 n 1 X j =1 n 1 X j =1 jSnj = jSn 1j + j(j. Solche Abbildungen nennt man auch Permutationen. ng fi. jg < x=j : (i. Beweis: Fur n = 1 sind beide Behauptungen klar. Um (1) durch Induktion nach n zu zeigen. 2. n) mit 1 j n und 2 Sn 1 . denn aus 2 Sn 1 folgt (n) = n und aus 2 (j. ng auf sich selbst ist. Sn = Sn 1 _ (j. j) die Permutation. welche i und j vertauscht und alle anderen Zahlen auf sich selbst abbildet. was (2) beweist. Jedes Element von Sn kann als Produkt von hochstens n 1 Transpositionen dargestellt werden. te Wahl der Pivotelemente an. Press.Bemerkung 3: In der Praxis kommt es beim Umgang mit reellen Matrizen sehr auf die geschickRecipes | erhaltlich fur C. j 2 f1.1 Einige Fakten uber Permutationen Wir erinnern daran. Dann ist nach Induktionsvoraussetzung Produkt von weniger als n 2 Transpositionen und ist ein Produkt von weniger als n 1 Transpositionen. ng sei (i. jSn j = n! = n (n 1) : : : 2 1. : : :. n)Sn 1: Aus ( ) folgen beide Behauptungen durch Induktion nach n. (2) = 1. Pascal). 8 x x 2 f1. : : :. j) die Transposition von i und j. andernfalls ist nach ( ) von der Form (j. Wenn sogar 2 Sn 1 gilt. so ist nach Induktionsannahme ein Produkt von weniger als n 2 Transpositionen. (vgl. n)Sn 1j = jSn 1j + jSn 1 j = n jSn 1j. Sei 2 Sn und 39 . Die rechte Seite von ( ) ist sicher eine disjunkte Vereinigung. da Sn die Gruppe der bijektiven Abbildungen von f1.

j ) = f(i. j) genau dann ein Fehlstand von . je nachdem. Bemerkung: 1. Diese Moglichkeiten schlie en sich aus. l( ) = jF j die Lange von und sign ( ) = ( 1)l( ) das Signum von . 2 Sn gilt: sign ( ) = sign ( )sign ( ). (j)) 2 F ) _ ((i.j = (n). = Id genau dann. (i. d. n)2 = Id und (j. ob sign ( ) = 1 oder sign ( ) = 1 gilt. Es gilt jF j jN j jF j = jF j jF j jF j = l( ) l( ) l( ) ist gerade. k) j i < k < j g _ f(k. Beweis: Fur 1 i < j n ist (i. Nun betrachten wir (j. n) = (n. 2. j) j i < k < j g fur i < j. (i. n)2 = Id . wenn eine der beiden folgenden Aussagen gilt: 1.h. und ( (j). n) ) 2 (j. Andernfalls gilt (j. j) 62 F ^ ( (i). Falls j = n gilt. j) 2 F ^ ( (j). wenn l( ) = 0. dann ist j(X Y ) (Y X)j jX j jY j gerade. Sei N = f(i. De nition: Fur 2 Sn sei F = f(x. und ( (i). Bemerkung: Es gilt (j. es folgt l((i. j) ist kein Fehlstand von . n)Sn 1 Damit ist ( ) bewiesen. Es gilt F(i. Die Vereinigung ist disjunkt. j)) = 1: Satz 1: Fur . (i)) 2 F )g: Es gilt jN j = jF j = l( ). (i)) ist kein Fehlstand von . sign ist ein Gruppenhomorphismus von Sn nach der multiplikativen Gruppe f 1g. Also haben wir erhalten F = (F N) (N F ): Dann folgt die Behautung aus folgendem Lemma: Seine X und Y endliche Mengen. n)((j. j)g _ f(i. (j)) ist ein Fehlstand von . Man erhalt sign ( ) = sign ( )sign ( ) ( 1)l( 40 ) l( ) l( ) = sign ( )sign ( ): 2 . j)) = 2(j i) 1 und sign ((i. j) j (i. y) j x < y und (x) > (y)g 2 die Menge aller Fehlstande von . j) ist ein Fehlstand von . Es gilt = Id = (j. ist 2 Sn 1 . Man nennt gerade oder ungerade. j). 2. n) 2 Sn 1 .

dann ist die Anzahl der Faktoren in dieser Darstellung genau dann gerade. x + 1g ^ j 2 fx. j 2 f(x. i 2 B. x + 1)g. also ist sign( ) = sign ( 1 ) : : : sign ( k ) = ( 1)k . Dann gilt l( (x. j) = (x.Beweis des Lemmas: Die Vereinigung (X Y ) (Y X) ist eine disjunkte Vereinigung. Fur i 2 f(x. j) 2 F (x. x + 1) 2 F (x. j) 2 F j i 62 fx.x+1). Beweis: Sei = 1 : : : k mit Transpositionen i . (b) j = x + 1: dann (i. 2 Satz 2: Sei 2 Sn und 1 x < n und (x + 1) < (x). Es folgt: j(X Y ) (Y X)j = (jX j jX \ Y j) + (jY j jX \ Y j) und damit: 2 Folgerung 1: Wenn eine Permutation als Produkt von Transpositionen dargestellt ist.x+1) ..j 62M :=fx. x) 2 F (x. 3. j)g = f(x. j) 2 F (x. Fur i 2 f(x. 1 i k.j 2M E |{z} Zwischenuberlegungen: Sei 1 i < j n.x+1) . wenn sign ( ) = 1. 2. 41 . Dann la t (x. x + 1) 62 F (x.x+1) .x+1) . dann gilt sign ( i ) = 1. Ebenso gilt jY X j = jY j jX \ Y j. denn X = (X Y ) _ (X \ Y ). x + 1)g. 4. x + 1)g. x + 1) i und j fest. (b) i = x + 1: dann (x + 1. x + 1)g gilt = (a) j = x: dann ( (x. Also ist k genau dann gerade. j)g \ f(x. j 2 C. Sei f(i. Dann: (i. j 2 D. i 2 A. j) 2 F (x. j 2 f(x. also j(X Y ) (Y X)j = jX Y j + jY X j: Es gilt jX Y j = jX j jX \ Y j.x+1g j(X Y ) (Y X)j jX j jY j = 2jX \ Y j: Beweis: Seien = = = = = fy j y < x ^ (y) > (x)g fy j y < x ^ (y) > (x + 1)g fy j y > x + 1 ^ (y) < (x)g fy j y > x + 1 ^ (y) < (x + 1)g f(i. x + 1)g gilt = (a) i = x: dann (x. x + 1))(x) = (x + 1). x + 1)g i=M ^j 2M 2 i2M. also gilt (i. Sei f(i.x+1) . x + 1gg = f A B } f } f {z } | fxg {z fx + 1g |xg C {zx + 1g D |(x. Also (i. 1. x + 1)) = l( ) 1: A B C D E Dann gilt F = i.j 2M = i. wenn gerade ist. x + 1)g = .

(n + m)K = nK + mK 2. also 1 2 Bild ( ) im Widerspruch zur = Bijektion von . Folgerung 2: Jede Permutation kann als Produkt von l( ) Transpositionen der Form (x. folgen). Sei = (x. Dann gilt (k) = k fur 1 k n: ware (1) 6= 1. Wegen l( ) = 0 folgt (a) < (b) fur 1 a < b n. x + 1)) 2 Bemerkung: Wenn (x) < (x + 1).Damit folgt: F (x. also (a) (1) > 1 fur ein 1 a n. (Andernfalls wurde leicht F = . Dies zeigt man genauso wie Satz 2 oder leitet es aus Satz 2 her (Ubungsaufgabe).x+1) = |{z} | fxg {z fx + 1g | xg D {zx + 1g C E B A f } f } 1: 2: 3: und l( ) = jE j + jAj + jB j + jC j + jDj + 1 = 1 + jE j + jB j + jAj + jDj + jC j = 1 + l( (x. also k 2 Bild ( ) Widerspruch. = ( n)K fur n < 0. und es gelte l( ) > 0. und ist nach Induktionsvoraussetzung ein Produkt von l( ) 1 Transpositionen benachbarter Zahlen.2 Charakteristik eines Korpers Sei K ein Korper. Sei nun (1) = 1. De nition 1: Fur ganze Zahlen n sei nK 2 K folgenderma en de niert: 0K 1K (n + 1)K nK = 0 (Nullelement der additiven Gruppe) = 1 (Einselement der multiplikativen Gruppe) = nK + 1 fur n 0. (k 1) = k 1. Also gilt (k) = k. Nach Satz 2 gilt l( ) = l( ) 1. so gilt l( (x. x + 1) (x. x + 1). 2 4. so wurde (1) > 1 folgen. Dann ist = Id zu zeigen. Bemerkung: nk = n 1K (Produkt der ganzen Zahl n mit dem Element 1 der additiven Gruppe) nK = | + :{z: + 1 2 K. Beweis durch Induktion nach l( ): Sei l( ) = 0. Dann gibt es ein x mit 1 x < n und (x + 1) < (x). fur n > 0: 1 : } Lemma 1: n Summanden 1. x + 1) = (x. Es folgt. : : :. Aus (k) 6= k wurde (k) > k und damit (a) (k) > k fur ein k a n folgen. da = Id = (x. = Die Behauptung sei fur Permutationen mit l( ) < l( ) bewiesen. x + 1)) = l( ) + 1. x + 1) ein Produkt von l( ) Transpositionen benachbarter Zahlen ist. (n m)K = nK mK 42 . x+1) geschrieben werden.

(wurde bereits fur beliebige additiv geschriebene Gruppen formuliert und begrundet.Beweis: 1. also ( m)K = ( (n + m))K + nK nach Fall 1 und damit (n + m)K = ( (n + m))K = (( m)K nK ) = nK ( m)K = nK + mK nach De nition 1. Fall 3: n < 0.n beliebig: Es gilt (mn)K + ( mn)K = 0K = 0 nach (1). nK mK Def. n + m 0: Es gilt nK = ((n + m) + ( m))K = (n + m)K + ( m)K nach Fall 1. wir wollen aber noch einen ordentlichen Induktionsbeweis anfuhren!) Fall 1: n 0. m < 0: (i) n 0.1 nK (mK + 1) = nK mK + nK IV (n m) + n = K K (1) = (n m + n)K = (n (m + 1))K Fall 2: m < 0. n beliebig: Vollstandige Induktion nach m.1 nK ( ( m)K ) = nK ( m)K Fall 1 ( nm)K = (nm)K : Lemma 2: Fur einen Korper K gibt es zwei Moglichkeiten 43 . Fall 1: m 0. m 0 Beweis durch Induktion nach m: Fur m = 0 ist die Behauptung klar: (n + 0)K = nK = nK + 0 = nk + 0k Induktionsschlu von m auf m + 1: (n + (m + 1))K = (n + m)K + 1 De nition 1 = nK + mK + 1 Induktionsvoraussetzung = nK + (m + 1)K De nition 1 Fall 2: n 0. Fur m = 0 gilt (n 0)K = 0K = 0 = nK 0 = nK mK Schlu von m auf m + 1: = nK (m + 1)K Def. m > 0: Wie Fall 2. denn die Aussage ist in n und m symmetrisch. n + m < 0: Dann gilt ( m) = ( (n + m)) + n. m < 0: (n + m)K = (( n m)K ) De nition 1 = (( n)K + ( m)K ) Fall 1 = ( n)K ( m)K = nK + mK De nition 1 2. m < 0. Aus De nition 1 folgt daher nK + mK = nK ( m)K = (n + m)K : (ii) n 0. m < 0. Fall 4: n < 0. also (mn)K = = 2 = ( mn)K .

Beweis von Lemma 2: Angenommen. K Charakteristik p hat. Wegen a < p und b < p gilt aK 6= 0 und bK 6= 0 nach der Auswahl von p. Dividiere n mit Rest durch p: n = a p + r. 44 . denn pK = | K + :{z: + 1K} 1 : = | + pZ + :{z: + 1 + pZ 1 : } = p+p Z = p Z = 0K : Bemerkung: Wenn K ein Korper und p eine Primzahl mit pK = 0 ist. a > 1. so da nK = 0 genau dann gilt. wenn p n teilt. zu 2. also konnen wir n > 0 voraussetzen. 2 Beispiel: char (Q) = char (IR) = char (C) = 0. char (IFp ) = p. wobei z und n teilerfremd sind und n nicht durch p teilbar ist (Fur p = 0 bedeutet dies nur n 6= 0). Die Bezeichnungsweise nK wird normalerweise nicht verwendet. a. p ist Primzahl. wenn p j n. Nach Lemma 1 gilt nK = aK pK + rK = rK : Weil p die kleinste positive ganze Zahl mit pK = 0 ist. Behauptung: 1. nK 6= 0 fur alle n 2 Z f0g. wenn r = 0 gilt. Sei p die kleinste positive ganze Zahl mit pK = 0. 2.1.h. Dann gilt auch ( n)K = 0. nK = 0 genau dann. Aus (1) und (2) folgt. Dann gibt es n 2 Z f0g mit nK = 0. 2. b > 1. z De nition 3: Sei char (K) = p.. De niere r x = zK x : nK p Summanden p Summanden Bemerkung: In Zukunft schreiben wir n 1 statt nK . d. In der Situation von Lemma 2 sagen wir. Fall (1) tri t nicht zu. verschwindet dieses Korperelement genau dann. De nition 2: Fur ganze Zahlen n sei nK 2 K. folgt 0 6= aK bK = (a b)K = pK im Widerspruch zur Auswahl von p. so gibt es a. zu 1. r 2 Z. x 2 K. welche p teilt. denn p ist die einzige Primzahl. Sei n 2 Z. wenn n durch p teilbar ist. und r = n 2 Q. 0 r < p. andernfalls gibt es eine Primzahl p. da 1. Weil K f0g multiplikativ abgeschlossen ist. K Charakteristik 0 hat. so hat K die Charakteristik p. p = a b. da Fall (2) von Lemma 2 eintritt. 2. Wenn p keine Primzahl ist. b 2 Z.

xk 2 Vk die Abbildung Vi ! W : Vi 3 x 7! f(x1 . : : :. xi 1. trilinear fur n = 3). : : :. falls fur alle i mit 1 i n und alle x1 . xi 1. Vn. versehen mit der folgenden Struktur eines K-Vektorraumes: fur f. xn) ( f)(x1 . : : :. : : :. :{z V} . xn) = 0. : : :. xn) + g(x1 . xn) = f(x1 . : : :. xi 1. = = = = (xy)k (xk)l xk + yk xk + xl 4. : : :. : : :. : : :. De nition 1: Seien V1. wenn eines der xi verschwindet. xi+1. xn) = f(x1 . xn.3 Schiefsymmetrische n-Linearformen Sei K ein Korper. l 2 K: x(yk) x(kl) (x + y)k x(k + l) Der Beweis ist einfach. Sei L(V1 . xn) eine lineare Abbildung ist. : : :. : : :. xi+1. xn) (f + g)(x1 . Beispiel 1: 2 45 . : : :. ~ f(x1 . : : :. : : :. : : :. : : :. n Stuck n-Linearformen auf V . xn) = f(x1 . : : :. K) nennt man auch | : :. xi. Vn nach W. : : :. Es gilt auch f( 1 x1. x. Vn. xi+1. xn). : : :. : : :. xn). eine Abbildung f : V1 : : : Vn ! W ist n-linear (bilinear fur n = 2. : : :. xn): Insbesondere gilt f(x1 . Vn und W K-Vektorraume. xi + xi. xn) = f(x1 . : : :. xi. W) und 2 K. Die Elemente von L( V. xixi 2 Vi): ~ f(x1 . xi 1. nxn) = 1 2 : : : n f(x1 . : : :. xi. Dann gilt fur k. xi+1. : : :. xi 1. xi+1. W ) die Menge aller n-linearen Abbildungen von V1 . Fakt 1: Fur eine n-lineare Abbildung gelten folgende Gesetze ( 2 K. wobei die Nenner von x und y nicht durch char (K) teilbar sind. xi 1. g 2 L(V1 . xn) ~ +f(x1 . : : :. xi+1.Bemerkung: Fur die Multiplikation von Korperelementen mit rationalen Zahlen gelten folgende Rechenregeln: sei x. y 2 Q.

: : :. W ). : : :. W). : : :. vn) 7! f(h1 (v1 ). y1) ein Element von L(V2 . : : :. : : :. Vn. : : :. : : :. : : :. : : :. W). dann ist die f(h1 : : : hn) : L(U1. V1 . h(v1 . u1. : : :. dann ist die folgende Abbildung g ein Element von L(V (1) . Sei f : V1 : : : Vn ! W (n 1)-linear und sei vn 2 Vn . W) ist g mit g(y1 . yn) = f(y 1 (1) . Sei f 2 L(V1 .1 : : : Un. g(y1 . Vi ).m1 : : : Un. ~ ~ Wenn f 2 L(V1 . : : :. Vn.1. v3) = f(v1 . W): ~ Wenn f 2 L(V1 . so ist g f 2 L(V1 .1 : : : U1. y 1 (n) ): Zum Beispiel fur f 2 L(V1 .1 . Vn . vk ) g(vk+j .mn ) ! W Uij 7! f(h1 (u1. Fur jeden Vektorraum V ist die Abbildung f :K V ! V ( . dann ist durch V V ::: V ! K (v1 .m1 ). vn 1) 7! f(v1 . Vn . : : :. v2. vk+1) eine k + l-Linearform de niert. W) und sei fur 1 Abbildung i n hi 2 L(Ui. vk+l ) 7! f(v1 . vn) n-linear 46 . u1. Vi ). Sei f 2 L(V1 . hn(vn )) v ~ n-linear. : : :.mi . vn 1. Vn . so ist ~ f(h1 : : : hn ) : V1 : : : V~n ! W (~1 . W) und sei 2 Sn . y2) = f(y2 .mn )) m1 + : : : + mn -linear. hn(un. : : :. Ui. V2. linear entspricht 1-linear. v) 7! v bilinear. Dann ist V1 : : : Vn 1 ! W (v1 . Sei f eine k-Linearform und g eine l-Linearform auf V . : : :.Fur alle n ist die Abbildung K K ::: K ! K (x1 . Zum Beispiel ist fur die Bilinearform f auf V und eine bilineare Abbildung g : V V ! V die Abbildung h : V V V ! K. : : :.1. xn) 7! x1 : : : xn eine n-Linearform auf K. : : :. g(v2. V (n) . W) und hi 2 L(Vi . : : :. : : :. : : :. W) und g 2 L(W. v3)) eine Trilinearform auf V .

so gilt 1 = 1 in K. : : :. Dann sind folgende Aussagen aquivalent: 1.Lemma 1: Fur einen Vektorraum V und eine n-lineare Abbildung l : V : : : V ! W sei G = f 2 Sn j 8 x1. G enthalt (i. Dann gilt nach 4. 2. Dann gilt x (i) = y (i) . : : :. xn 2 V : l(x (1) .2 ist aber jedes Element von Sn Produkt solcher Transpositionen. xn) 1 (i). : : :. Nach Folgerung 4. x sign ( 1 )f(x1 . . yn) sign ( )f(x (1) . damit gilt (1). : : :. : : :. y (n) ) sign ( )f(y1 . (1))(2))(3) ist klar. x (n)) = sign( ) l(x1. : : :. Also 2 G. denn sign (Id ) = 1. In solchen Korpern durfen wir aus x = x noch nicht x = 0 folgern. xn) = 0.1. 47 . falls ein i mit 1 i < n und xi+1 = xi existiert. Sei char (K) 6= 2.2: 1 1 x = 2 2x = 1 (x + ( x)) = 2 0 = 0 ) x = 0 2 Lemma 2: Sei f wie l in Lemma 1. x 1 (n)) = Dann gilt: ) Also 1 2 G. G enthalt alle Transpositionen: l multipliziert sich mit 1 bei Vertauschung zweier Argumente. f(y (1) . yn) sign ( )f(x 1 (1) . i + 1) fur 1 i < n: l multipliziert sich mit 1 bei Vertauschung zweier benachbarter Argumente Beweis: G ist eine Untergruppe: Id 2 G. damit ist G eine Untergruppe. xn): 1 (n)) 2 Bemerkung: Wenn K ein Korper der Charakteristik 2 ist. 3. Deshalb sind folgende Aussagen uber l aquivalent: 1. xn) sign ( )f(x1 . : : :. xn 2 V sei yi = x f(x1 . G = Sn : l multipliziert sich bei Vertauschung seiner Argumente mit dem Vorzeichen der Permutation. denn x = x gilt fur alle x aus einem K-Vektorraum. : : :. : : :. : : :. : : :. : : :. V ein K-Vektorraum. : : :. y (n) ) sign ( )f(y1 . x 2 V und x = x. : : :. Dann (i. also 2 G.1 f(y (1) . : : :. i + 1) 2 G fur 1 i < n. 2G) 2 G : Sei yi = x (i) . f(x1 . xn) = 2 =G = f(x 1 (1) . x( )(n) ) = 2 =G = 2 =G Satz= 4. Also f(x( )(1) . : : :. xn)g Dann ist G eine Untergruppe von Sn . : : :. x (n)) sign ( ) sign ( )f(x1 . Angenommen (3) gilt. 2 G ) 1 2 G: Fur x1.1.

xn) = 0. nennt man schiefsymmetrisch oder antisymmetrisch. x1) Also f(x1 . : : :. falls i. xi. x1 + x2) + f(x2 . 1 i < n und x1. xi. : : :. 48 . xi 1. x1 + x2) f(x1 . (1))(2): Wir wissen G = Sn . x2) + f(x2 . xi+2.(3) in Lemma 1 aquivalent. : : :. x1) + f(x2 . xi+1. x1) + f(x1 . Aus (1) folgt: 0 = f(x1 + x2. so gilt G = Sn in Lemma 1. Wir haben f(x1 . xi+2. xi 1. xi. x.2. f(x1 . Sei 1 i < j n und sei xi = xj . x2) = f(x2 . xi) nach dem bewiesenen Fall n = 2. : : :. y) = f(x1 . : : :. Sei n > 2. (1)) G = Sn : Wir werden (3) aus Lemma 1 beweisen: sei n = 2. xi 1. : : :. j mit 1 i < j < n und xi = xj existieren. Wenn char (K) 6= 2 gilt. : : :. xn): Falls xi = xi+1 sein sollte. x1) f(x2 . yn ) (1) 0: G = Sn und char (K) 6= 2 )(1): Es gilt wegen G = Sn a := f(x1 . : : :. xi+1. xi+2. xn). xn) = f(x1 . xi 1. x2) f(x1 . Wenn das der Fall ist. xi+2. : : :. x2) = f(x1 . : : :. xi+1. also erfullt f (3) aus Lemma 1. x1 + x2) f(x1 . so andert es seinen Wert nicht. x2) = f(x1 . : : :. also g(xi . xn) = f(x1 . so sind (1) und (2) zu G = Sn . : : :. xi+1. Fakt 2: 1. Wenn l schiefsymmetrisch ist. 2 De nition 2: Eine n-lineare Abbildung f : V : : : V ! W.(2). xi+2. also gilt = = f(x1 . zu jedem der Punkte (1). y.h. xi+1) = g(xi+1 . Dann gilt yi = yi+1 . x2) = f(x1 . Wegen char (K) 6= 2 folgt daraus a = 0. Dann ist g bilinear und erfullt (1). wenn man ein Vielfaches eines Argumentes zu einem anderen Argument hinzuaddiert. x1). d. so gilt a = f(x1 . xn) zu zeigen. xn) = f(x1 . Sei g(x. x1) f(x2 . xn) = a Also a = a. die die aquivalenten Bedingungen aus Lemma 2 erfullt. xn) G=Sn sign ( )f(y1 . x1) f(x2 . Beweis: (2))(1) ist klar. xn 2 V . xi. x2) + f(x2 . : : :. : : :. : : :. : : :. xi 1. Sei 2 Sn wie folgt de niert: 8 k 1 k i_j < k 1 < k = i+1 (k) = : j k 1 i+1< k j Sei yi = x (i).

: : :. xi} = 0: | xi doppelt De nition 3: Sei l eine schiefsymmetrische n-Linearform auf V und sei a : V 0 ! V linear. f(x1 . Wegen G = Sn konnen wir o. m X j =1 vn. : : :. und sei vi. 2. xi 1. xn) =0. xn) = 0). so gilt d = 0. a(vn)) de nierte schiefsymmetrische n-Linearform auf V 0. ng nach f1. xn 1.Beweis: 1. Wenn d(b1. : : :. da j doppelt x ) i f (x1 . bn) eine geordnete Basis von V . wobei L die Menge aller Abbildungen von f1.j . : : :.4 Der Determinantenbegri vi. Also gilt: f(x1 . xn linear abhangig sein sollten.j ) = X 2L f(v1. xi+1. V ! W eine n-lineare Abbildung. = n 1 X i=1 n 1 X i=1 i xi ) = f(x1 . vn) = l(a(v1 ). xj . Dann gilt f( m X j =1 4. : : :. da xn = in=11 i xi. : : :. : : :. W Vektorraume. xn) = f(x1 . : : :. Lemma 1: Sei d eine schiefsymmetrische n-Linearform auf V . Sei n > 1. : : :. : : :. xn} ) {z | P 2. und sei die Behauptung fur 49 . Sei a l die durch 0 0 0 0 (a l)(v1 . : : :. xi+1. V ein n-dimensionaler K-Vektorraum. mg ist. : : :. (n)). xn) = f(x1 . 2 Sei K ein Korper. vn.j 2 V fur 1 i n und 1 j m. : : :. und sei B = (b1. Zum Beweis benotigen wir f Fakt 1: Seien V. xn) + f (x1 .A. Fur n = 1 folgt die Behauptung aus der Vertauschbarkeit von Summen und linearen Abbildungen. m 2 IN. : : :.d. (1) . so ist a ein Isomorphismus zwischen den Raumen der n-Formen auf V und V 0. Beweis durch vollstandige Induktion nach n. und (a ) 1 = (a 1 ) . : : :. : : :. b a Fakt 3: Fur V ! V 0 ! V gilt (ab) l = b a l und id l = l: Wenn a ein Isomorphismus ist.B. : : :. so gilt f(x1 . bn) = 0. : : :.{zn 1. Wenn die x1. annehmen. : : :. xi + xj .

vn 1. b (n)). (1) : : : n. (i) i+1. vn) = = 2L 1. (n) ) = 0 {z } | 1. : : :. fur d 2 D(V ) f0g und d 2 D(V ) sei d0 = d d~((b11. wobei 2 M ist. (i+1) i+1.:::. (i) : : : n. Es folgt d(v1. Durch L ! L0 f1. Aus Fakt 1 folgt Beweis von Lemma 1: Sei vi = j=1 ij j d(v1 . also ist d zu d proportional. daher die Gleichheit der beiden letzten Zeilen. : : :. (i+1) = i. (i+1) : : : n. (1) . : : :. Sei M j | {z } 2Sn umgeschrieben werden.i) f(v1. Dabei ist L0 = f1.j .3. m X j =1 vn 1. : : :. Dann kann jedes Element von Sn als oder als (i. (1) : : : n. (i) i+1. 2 Folgerung 1: Fur einen n-dimensionalen Vektorraum V sei D(V ) der Raum aller schiefsymmetrischen n-Linearformen auf V . (i) : 50 . mg. : : :. vn. Dann gilt: f( m X j =1 v1. : : :. (1) : : : n. (1) : : : i. m X i=1 vn.(n 1)-lineare Abbildungen bewiesen.n 1g und i = (n) ist eine Bijektion de niert. Wenn also ~ d 2 D(V ) f0g ist.:::. (1) 1. (n) sign ( )d(b1. b (n)) nach den Resultaten aus 4. : : :. Also kann (1) zu X dB (v1. ng ist. b (n)) wenigstens ein Argument doppelt auf. : : :. : : :. (i) und i+1.:::. also i. Angenommen. : : :. bn) = 0. : : :. Sei dB durch X dB (v1 . so ist jedes d 2 D(V ) zu d proportional.j . X X 2Sn 1. i + 1) zu (1) 2Sn : : : n. ng nach f1. vn.bn )) d. Dann ist D(V ) hochstens eindimensional. : : :. vn) = X wobei L die Menge aller Abbildungen von f1. : : :.:::. (i+1) : : : i+1. (1) Beitrag von (i. mgf1. b (n)) = 0. (n) 2M Beitrag von zu (1) : : : i. also taucht in d(b (1). P fur vi = n=1 ij bj de niert. denn i. Dann gilt ~ d0(b1. da die Dimension von D(V ) auch genau eins ist. (n)): f(v1. ~ ~ d b . vn) = sign( ) 1. (n 1). vi = vi+1 . i) mit = jf1. (i) = i+1. : : :. : : :. : : :. : : :. (n) d(b (1). Dann ist dB eine n-Linearform. und d(b (1). 2 Pn b . (n) d(b (1). (i+1) = i. so gibt es 1 i < j n mit (i) = (j). 7! ( . : : :. Wir wollen zeigen. (n) (1) die Menge aller 2 Sn mit (i) < (i + 1).n 1g. (n 1). vn) = sign ( ) 1. i + 1) geschrieben werden. Wenn 2 L nicht bijektiv ist. bn).bn Beweis: In der Tat. also d0 = 0.j ) (1) . vn 1.j . (i+1) . vn.i) = = = n m X X i=1 j =1 m XX j =1 2L0 m XX j =1 2L f( v1.

det(fg) = det(f) det(g) fur f. Dann gibt es genau ein y 2 K mit g(d) = yd fur alle d 2 D. n = dim(V ). Sei a : V ! W ein Isomorphismus und f 2 End(V ). 51 . (n) = 1.3. Fur jeden Endomorphismus f von V gibt es genau ein det(f) 2 K mit f (d) = det(f) d fur alle d 2 D(V ). 2. | (1) : : : i. Es folgt dB 2 D(V ) f0g und D(V ) 6= f0g.3. det( Id V ) = n zu zeigen. ( (Id )(v )) (( (IdV ) d)(v1 . 1 j n. det(IdV ) = 1. g 2 End(V ). fur vi = bi gilt ij = ij und (1) ergibt dB (b1. det( f) = n det(f). : : :. bn) = 1. 4. 4. : : :. Fur d 2 D(V ) gilt: (fg) d Fakt=4. : : :. Beweis: (1) wurde soeben bewiesen. 3.3 d(( (Id )(v ). 3. {z } =0 fur 6=Id denn fur 6= Id gibt es j mit (j) 6= j. vn): = Beweis: Damit sind (2) und (3) gezeigt.Damit dB 2 D(V ). : : :.3 g (f (d)) = det(g)f (d) = det(g) det(f)d: Also det(fg) = det(f) det(g) nach der Eindeutigkeitsaussage in Theorem 1. 2 Folgerung 2: 1. 2 Theorem 1: 1. dann gilt det(afa 1 ) = det(f): 1. Es genugt nach (1). vn) n d(v1 . D(V ) ist eindimensional 2. Zusammen mit dem nachsten Punkt. det(0) = 0. : : :. vn ) Def= V 1 V n = d( v1 . : : :. 2. In der Tat. bn) = X 2Sn sign ( ) i. (2) folgt aus dem folgenden einfachen Fakt: Sei g ein Endomorphismus eines eindimensionalen Vektorraumes D. Behauptung: dB (b1.

: : :. f(bn ) linear unabhangig . det( A) = n det(A). bn): 2. In diesem Fall gilt det(f 1 ) = det(f) 1 . Wir setzen det(A) = det(A ) und schreiben auch a11 a12 a1n 0a a1n . Wenn die vi linear abhangig sind. Wende (1) auf dB an und beachte dB (b1. . f(bn )).5 Determinanten von Matrizen De nition 1: Sei A = (aij )n =1 2 Mat (n. Sei d 2 D(W): Es gilt (afa 1 ) (d) = (a 1 ) (f a (d)) = (a 1 ) (det(f)a (d))) = det(f)((a ) 1 )a (d)) = det(f)d. n 2.1 de nierte i. d(f(b1 ). : : :. 52 . so folgt d(v1 .3 verwendet haben. .. 2. b ) n )) : d(b1. .2. det(AB) = det(A) det(B). Die Gleichheit det(f 1 ) = det(f) 1 folgt aus Folgerung 2. @ . Beweis: Wenn die vi linear unabhangig sind. vn) eine geordnete Basis von V . K) gilt: 1. : : :. f ist Automorphismus . : : :. bn) = 1: 3. : : :. : : :. : : :. . 2 Beweis: 4.. Folgerung 3: (Aus Theorem 1 und Satz 1) 1. f(bn)) 6= 0. vn) = 0 aus Fakt 4.3. so ist C = (v1 . : : :. vn) = 0 gilt. Sei d 2 D(V ) f0g. f(bn )) = (f d)(b1. B 2 Mat (n. Dann sind n Vektoren v1. . : : :. was nicht sein sollte. : : :. f 2 End (V ) ist genau dann ein Automorphismus.4.. . 1. f(b1 ). wenn d(v1 . n. 2 Satz 1: Sei d 2 D(V ) f0g. f(b det(f) = d(f(b1 ). . : : :. dB (f(b1 ). vn 2 V genau dann linear abhangig.j Operator. wenn det(f) 6= 0 gilt.. . n. Insbesondere: det(f) = dB (f(b1 ). Wegen Lemma 1 ( angewendet auf C statt B) wurde aus d(v1 .. : : :. :: :: :. .. . K) und sei A : K n ! K n der in 3. dann gilt :. 11 a21 a22 . vn) = 0 d = 0 folgen. an1 ann an1 ann 1 C: A Folgerung 1: Fur A.3. := det B . . bn) = det(f)d(b1 . wobei wir Fakt 4. 3.

2)g.n (1). det(0) = 0. 4.3.4.1 a (2). : : :. Aen) = d(e1.4.3 und den in 3. 2)) = 1.2 = det(A) 2 Beispiel: Fur n = 2 gilt S2 = fId . (1) a2.3 und A ej = Pn=1 aij ej j i det(A) = d(e1. a 1 (2). Damit folgt mit Folgerung 4. wenn det(A) 6= 0.1 X = X 2Sn sign ( ) a sign ( ) a1. : : :.j = X X 2Sn sign( ) a1.2 : : : a (n).2 und 4.1 a 1 i=1 (2). und der letzte 1 (1). : : : a (n).4. Es gilt aT = aji. (n) 2Sn sign ( ) a (1).:::. da det(A 1 ) = det(A) 1 Beweis: Die Behauptungen folgen aus Folgerung 4. n X 2Sn sign( ) a (1). det(1n ) = 1.2 ainei ! : : : a (n). i. (n) Folgerung 2: Beweis: Sei A = (aij )n =1 und AT = (aT ). so gilt sign ( ) = sign ( ). 2 a (2) : : : aT (n) n.2) =Id 53 . (1.n Beweis: Sei ei = ( ij )n=1.1. (2) : : : an. Wenn wir Ausdruck wird zu n X i=1 X = ai1 ei .1 (2).n einsetzen.j ij ij det(AT ) = det(A) det(AT ) = = 2 X 2S Xn 2 Sn sign( ) aT. (2) : : : an.n 2Sn (1) a2. 2 Satz 1: (Leibnizsche Determinantenformel) det((aij )n =1 ) = i. 1 sign( ) a (1) aT. erklarten Zusammenhangen zwischen Matrizen und linearen Abbildungen. Die rechte Seite der Leibnizschen Determinantenformel wird zu a b a b a {z } a {z } | 11a22 | 12a21 oder det c d = c d = ad bc: =(1.4.:::. Au erdem ist A invertierbar genau dann.en ) (Ae1 .en ) = mit Gleichung 4.1. In diesem Fall gilt. wobei sign (Id ) = 1 und sign ((1.2 ::: a 1 (n).

multipliziert sich mit 1. . multipliziert sich mit . : : :. vn) e1 . Bilde die Summe der drei Diagonalen von links oben nach rechts unten und subtrahiere von dieser die Summe der drei Diagonalen von links unten nach rechts oben. Analoges gilt fur die entsprechenden Spaltenumformungen.Fur n = 3 gilt die Regel von Sarrus: Schreibe die beiden ersten Spalten hinter die Matrix. . : : :. Fur gro e n wird die Formel daher schnell unpraktikabel. wn 2 K m sei Mat s (w1. (vm1 .en ) (Mat s(v1 . vmn )) = B @ v11 v1n .:::. vn) = Mat s (v1. . . vn )ei = vi . andert sich nicht.en ) eine schiefsymmetrische n-Linearform ist. man braucht also n! (n 1) Multiplikationen. : : :. v1n). jeder Summand hat n Faktoren. : : :. : : :. : : :. 2 Folgerung 3: Die Determinate einer Matrix 1. vn) en ) = d(e1. vm) ist die Matrix mit den Zeilenvektoren vi: 0 Mat z ((v11. : : :. Beweis: Es gilt nach Folgerung 4. . : : :.:::. : : :. wn) = Mat z (w1. wn)T : Satz 2: det(Mat s(v1 . : : :. De nition 2: Mat z (v1 . wenn man ein Vielfaches einer Zeile zu einer anderen Zeile addiert. : : :. 3. 2. Wegen Folgerung 2 und Mat z (v1 . vn). 2 54 . wenn man zwei Zeilen vertauscht. : : :. vn ) denn Mat s (v1 . : : :. : : :.:::. vn)T berechnet dieser Ausdruck auch die Determinante von Mat z (v1 ...3: det(Mat s(v1 . : : :. vn)) = d(e1. : : :.4. 0a 1 a12 a13 a11 a12 11 B % % Ba & a & a & a % a C C B 21 22 23 21 22 C B C @ A % % & % & & a31 a32 a33 a31 a32 det(A) = a12a22a33 + a12a23a31 + a13a21 a32 a31 a22a13 a32 a13a11 a33a21a12: Fur allgemeines n hat die Leibnizformel n! Summanden. wenn man eine Zeile mit multipliziert.en ) (v1 . Weil d(e1. vn)) = det(Mat z (v1. folgt die Behauptung. : : :. . vm1 vmn 1 C: A Fur w1. wn) die Matrix mit den Spaltenvektoren wi : Mat s (w1 . Mat s(v1 . vn)) ist eine schiefsymmetrische nLinearform in den Argumenten vi 2 K n . : : :. : : :.

: : :. K) linear. Es genugt also. n. : : :. O enbar sind die Abbildungen Min i : K n ! K n 1 und Min ij : Mat (m. xn) 8 (x . vn 2 K (1) fur A = Mat s (v1 .De nition 3: 1. xk+1. 1. xn) 2 K n sei (K n ) 3 li (x) = xi. : : :. Min j (am )) die durch Streichen der i-ten Zeile und der j-ten Spalte entstehende Matrix. Wir xieren dazu k und bezeichnen die rechte Seite von (1) mit RS(A). : : :. xk 1. xn) 1 < k < n (x1 . vn) = ( 1)k+i lk (vi ) det(Mat s (Min k (v1 ). : : :. (1) zu beweisen. : : :. : : :. Wir behaupten. sei d Min ij (A) = Mat z (Min j (a1 ). am ) und 1 i m. x ) k=1 < 2 n := : (x1 . vn) durch d RSi (v1 . xk ) = (x1. Min k (vi ). : : :. Min j (ai ). : : :. : : :. xn 1) k=n das durch Streichen des k-ten Elements entstehende (n 1)-Tupel. da RS(Mat s (v1 . xk . : : :. Min k (vn )) 55 . 2. In der Tat. 1 j n. Satz 3: (Laplace) Fur jede n n-Matrix A = (aij )n =1 und 1 k n gelten die Entwicki. fur 1 i n ist die i-te Summe in eine n-Linearform in v1 . : :^:. Fur eine m n-Matrix A = Mat z (a1. : : :. K) ! Mat (n 1. xn) und 1 k n sei Min k (x1. Fur x = (x1. : : :. vn)) () n ist.j lungen nach der k-ten Zeile det(A) = n X i=1 n X i=1 ( 1)k+i aki det(Min ki(A)) (1) und die Entwicklung nach der k-ten Spalte det(A) = ( 1)k+i aik det(Min ik (A)): (2) Beispiel: 3 2 1 1 1 2 =3 1 2 2 1 2 + 1 1 = 1 2 =1 1 3 1 3 1 1 1 3 1 1 3 Beweis von Satz 3: Die Entwicklung nach einer Spalte bekommt man durch Anwendung der Zeilenentwicklung auf die transponierte Matrix (Folgerung 2). : : :. : : :. : : :. : : :. Fur ein n-Tupel x = (x1. m 1.

1 ist daher RSi (v1 .. . Dann stimmen fur i 62 fl.2 beschriebenen Eliminationsverfahrens in Zeilenstu~ fenform. vn) n-linear.2 benutzten Zeilenumformungen andert die Addition des Vielfachen einer Zeile zu einer anderen die Determinante nicht (Folgerung 3). denn det(Mat s(x1 . ..3. det(A) = a11 : : : ann.j das Produkt der Diagonalelemente. = = a11 : : : ann: 2 0 0 . . d. Bringe A durch Anwendung des in 3.l+1 (A))): (y) Aus unseren Vorraussetzungen an A folgt aber akl = ak. Dann ist det(A) i. NachPn Beispiel 4.gegeben. namlich die l-te und die (l + 1)-te fur i > l + 1 und die l-te und die (l 1)-te fur i < l. ergibt sich RS(1n) = n X i=1 ( 1)k+i ki det(Min ki(1n)) = ( 1)k+k k. Min k (vi ). vn)) = i=1 RSi(v1 . vn. Daher erhalt man folgende Vorschrift zur Berechnung von det A: 1. . also ist det(Mat s(Min k (v1 ). : : :.j gilt. = a11 0 0 . und sei l die Anzahl der Zeilenvertauschungen. Abschnitt 3. : : :. und die Vertauschung zweier Zeilen andert nur das Vorzeichen..2) nach dieser Vorschrift berechnet werden. etwa die l-te und die (l + 1)-te fur 1 l < n (Lemma 4.k det(Min k. : : :.1 folgt die Existenz eines c 2 K mit RS(A) = c det(A) fur alle n n-MatrizenA: Wir haben noch c = 1 zu zeigen. die dabei benotigt wurden. ( ) ist eine schiefsymmetrische n-Linearform auf K n : Das ist aquivalent dazu.k(1n )) = 1 1 det(1n 1) = 1 2 Fakt 1: Sei A = (aij )n =1 eine obere Dreiecksmatrix. Beweis: Entwicklung nach der ersten Spalte ergibt a11 a12 : : : a22 a23 : : : 0 a22 0 a33 . wenn in A zwei benachbarte Spalten ubereinstimmen. Sei A das Ergebnis.. 3.h. Min k (vn )) eine (n 1)-Linearform auf K (x.. Aus Schritt 2 und Theorem 4. Bemerkung: Insbesondere kann die Determinante einer Zeilenstufenmatrix (vgl. da RS(A) verschwindet. Dann ist RSi eine n-Linearform in v1. aij = 0 fur alle j < i.4.2).l+1 det(Min k. n . 2. . .l+1 (A). y) 7! xy sind bilinear. : : :. Daher gilt 8 i 6= fl. : : :. xk. vn) n-linear. Dazu genugt es.3. .l+1 und Min kl (A) = Min k. . . 56 . ^ d xn )) ist (n 1)-linear und Min k ist linear. und die Abbildungen K K ! K. und daher ist RS(Mat s (v1 . l + 1g : det(Min ki(A)) = 0 und wir erhalten RS(A) = ( 1)k+l (akl det(Min kl (A)) ak. Von den in 3. : : :. : : :. : : :. Da 1n = ( ij )n =1 i. also verschwindet (y) und die Behauptung aus Schritt 2 ist bewiesen. RS(1n ) = 1 zu zeigen. l + 1g auch in Min ki(A) zwei Spalten uberein..

(Zum Vergleich die Kosten fur die Anwendung der Leibniz-Formel: (n 1) n!).. Beweis: Sei zi = ( i 1. : : :. Vom rechnerischen Standpunkt aus betrachtet ist die Berechnung einer Determinante durch wiederholte Anwendung des Entwicklungssatzes nur eine klugere Organisation der Berechnung der Produkte. die in der Leibniz-Formel auftauchen.j 2.j adj ij (A) = ( 1)i+j det(Min ji(A)): Satz 5: (Cramersche Regel von 1750) Fur alle n n-Matrizen A gilt: A Adj (A) = Adj (A) A = det(A) 1n: Insbesondere: A 1 = Adj (A) falls det(A) 6= 0: det(A) 57 .~ a i. Es gilt dann mit A = (~ij )n =1 ~ det(A) = ( 1)l det(A) = ( 1)l a11 : : : ~nn: ~ a Dieser Algorithmus kostet n33 + O(n2) Multiplikationen. Sei A = Mat z (~1 . n 2 K gilt 1 . : : :. ~ z ~ ~ nach der ersten Spalte ergibt Entwicklung von A ~ det(A) = ( 2 1) : : : ( n 1 ) (Siehe auch Ubungsaufgaben). Satz 4: (Vandermondsche Determinante) Fur 1 . : : :. . : : :. 1 2 1 ::: ::: ::: ::: 1 . n 2 n = Y n 1 1 n 1 n 1 i<j n ( j i ): fur 1 i n und A = Mat z (z1 .. Zu zeigen: det(A) = det(A). zn ). i 1) n 1 Beispiel: 2 1 = (5 4) 1 1 1 = 1 (4 3)(4 = 12 1 1 2 3 4 9 8 27 2)(4 1 4 16 64 1)(3 2)(3 1)(2 1) 5 1 1 1 1 4 1 1 1 1 3 1 2 4 8 2 1 3 9 27 1 1 4 16 64 De nition 4: Die Adjunkte Adj(A) einer n n-Matrix A ist die Matrix Adj (A) = (adj ij (A))n =1 mit i. . zn). Sei z1 = z1 und ~ ~ ~ zi = zi 1 zi 1 fur 1 < i n.

Die Gleichung Adj (A) A = det(A) 1n zeigt man entweder analog durch Anwendung derselben Betrachtungen auf Spalten statt Zeilen.j ij = n X mit A = (aij )n =1 . Entwicklung k. also det(B) = 0. oder durch Anwendung von AT Adj (AT ) = det(AT )1n. Wir sagen. 58 . Dann gilt bjk = aik und Min jk (B) = Min jk(A) fur 1 k n. Sei 1 k min(m. K). 4.6 Orientierungen von reellen Vektorraumen De nition 1: Sei X eine Menge. 3. die aus A durch Streichung von (m k) Zeilen und (n k) Spalten entsteht. symmetrisch. m. R ist 1. falls aus x 2 X xRx folgt. Es folgt in beiden Fallen: det(B) = det(A) ij : (y) Sei B = (bkl )n =1 . transitiv und symmetrisch ist. und schreiben xRy. denn Adj (A)T = Adj(AT ) und det(A) = det(AT ). falls (x. y. falls aus x.Beispiel: Fur n = 2 gilt: d b a b 1= 1 c a c d ad bc Beweis von Satz 5: Wir zeigen A Adj (A) = ( i. y 2 X und xRy auch yRx folgt. Eine Relation auf X ist eine Untermenge R X X. y) 2 R. n). re exiv. Sei r = maxfk j 9 k k-Minor B von A mit det(B) 6= 0g fur A 6= 0 : 0 sonst Dann stimmt r mit dem Rang von A uberein. die aus A durch Ersetzen der i. 2 Bemerkung: Sei A 2 Mat (m.l von det(B) nach der j-ten Zeile gibt also: (y) = det(B) ij det(A) Satz 3 = n X n X n X k=1 k=1 aik adj kj (A) () ( 1)j +k bjk det(Min jk (B)) aik ( 1)j +k det(Min jk (A)) aik adj kj (A) (=) ij = = k=1 k=1 Also A Adj(A) = det(A) 1n. da x 2 X in der Relation R zu y 2 X steht. z 2 X und xRy und yRz auch xRz folgt. Ein k k-Minor von A ist eine k k-Matrix B. transitiv. 2.j )n =1 = ( ij det A)n =1 mit i. Die Formel fur A 1 folgt unmittelbar.j j-ten durch die i-te Zeile entsteht. Dazu xieren wir i und j. falls aus x. Sei B die Matrix. R ist eine Aquivalenzrelation.j i. falls R re exiv. Fur i 6= j stimmen die i-te und die j-te Zeile von B uberein.

59 . damit z 2 Y . Y 2X= ~ also Y = Y und die Vereinigung ( ) ist disjunkt. Eine Aquivalenzklasse bezuglich ist eine nichtleere Untermenge Y von X mit folgenden Eigenschaften: 1. falls N j x y. Dann ist Y Aquivalenzklasse: Sei y. Sei weiterhin x 2 X. 9 t 2 IR : t > 0 ^ x = t y Fakt: 1. De nition 2: Sei V ein n-dimensionsionaler reeller Vektorraum. also x z. da es sich um eine Aquivalenzrelation handelt. Eine Halbachse in V ist eine Aquivalenzklasse bezuglich der folgenden Aquivalenzrelation auf V f0g: x y :. Fur eine naturliche Zahl N betrachten wir die Relation x y genau dann. wenn x ymod N. Aus x.. etwa y 2 Y \ Y . Fur x 2 X gilt dann ~ Y6 ~ x2Y . Aus y 2 Y und x 2 X und x y folgt x 2 Y . Angenommen. also x = (st)z mit st > 0. also y x (Symmetrie). ist Z=pZ = IFp . z 2 Y . Sei y 2 Y und y z. Y = fy 2 X jx yg. Sei X= die Menge aller Aquivalenzklassen bezuglich . ist in der Tat eine Aquivalenzrelation. S Wegen x 2 Y (Re exivitat) gilt Y 6= . Die Aquivalenzklassen sind die Restklassen modulo N.. Dann ist X disjunkte Vereinigung aller Aquivalenzklassen: X= Y: () ~ Beweis: Disjunktheit: Seien Y und Y zwei Aquivalenzklassen bezuglich . also auch y z (Transitivitat). Beispiel: Sei X 2 Z. Fur v 2 V dies die beiden Aquivalenzklassen A = f vj 2 IR. 2.x y . sie bilden die Menge Z=NZ. also x x: Symmetrie: Aus x y folgt x = ty mit t > 0.h. Man pruft leicht nach. 2. < 0g: 1. t > 0. also Y 2 X= . . Wenn N = P eine Primzahl ist. Dann gilt x y und x z nach De nition von Y . Gilt n = 1.Fakt: Sei Aquivalenzrelation auf X. so hat die Menge (V f0g)= genau zwei Elemente. Transitivitat: Aus x y und y z folgt x = ty und y = sz mit s. Also x 2 Y 2 Z 2X= Z. Dann gilt x y (De nition von Y ). Y \ ~ = . d. y 2 Y folgt x y.x2Y. f0g sind Beweis: Re exivitat: x = 1 x. also auch x z (Transitivitat). also y x. also y = t 1 x mit t 1 > 0. > 0g und B = f vj 2 IR.

(1. Dann gilt D(V ) = V . Andernfalls sagen wir. : : :. e positiv orientiert Beispiel: IR 1 n ist. falls b2 6 ? ^1 6 b ~2 b b1 ~1 b - B = (b1 . : : :. ~2) = ((1. 1). Dann gibt es genau eine Orientierung von V . Wir sagen. (0.h.1 gilt: d(b1. 0). 2 De nition 3: Sei V ein n-dimensionaler reeller Vektorraum. b2) = ((1. Dann hat die reelle Zahl d(b1. A ist Aquivalenzklasse: O enbar A = fyjy B ist Aquivalenzklasse: O enbar B = fyjy ist B Aquivalenzklasse. : : :. da B positiv orientiert bezuglich ist. 1)) ^ b b B = (^1 . Nach dem letzten Fakt folgt. : : :. y-Achse: In der Zeichenebene nach vorne weg vom Betrachter z-Achse: Senkrecht zur Zeichenebene nach oben 60 . b n wird ublicherweise so de niert. 0). Eine Basis ((a. vg Nach dem Beweis des letzten Faktes vg Nach dem Beweis des letzten Faktes Existenz eines t 2 IR mit x = t v: Fur x 6= 0 folgt t 6= 0. da A und B die einzigen Aquivalenzklassen sind. Also : V f0g = A B. bn) fur alle d 2 dasselbe Vorzeichen. (0.l(v) > 0 fur alle l 2 g Beispiel: Sei V = IR2 .4. 0)) ^2 ad bc > 0 ist. da die Standardbasis e . bn). bn) 6= 0 fur alle d 2 D(V ) n f0g und alle Basen B = (b1 . bn) > 0 fur alle d 2 ist. so da ((1.2. Bei der ublicherweise verwendeten Auswahl der Basis des IR3 in der j analytischen Geometrie des Raumes : x-Achse: In der Zeichenebene (d. Beispiel: Sei dim(V ) = 1. Es gibt dann eine Bijektion Halbachsen in D(V ) = V ! Halbachsen in V (= Orientierung von V ) ! fv 2 V n f0g j v ist positiv orientiert bzgl d. Eine Orientierung von V ist eine Halbachse des eindimensionalen Vektorraumes D(V ). b). da B negativ orientiert ist. ^2) = ((0. 1)) positiv orientiert ist. Sei 2 D(V ) eine Orientierung von V und sei B = (b1 . : : :. Tischebene) von links nach rechts.h. (0. bn) eine Basis von V . 1)) + ~ b b B = (~1 . falls d(b1 . also t > 0 (x 2 A) oder t < 0 (x 2 B). (c. 0). ist A Aquivalenzklasse. d)) von V ist dann genau dann positiv orientiert. : : :. wobei ei = ( )n=1 . A und B sind die einzigen Aquivalenzklassen: Aus x 2 V folgt wegen dim(V ) = 1 die Bemerkung: Nach Satz 4.

und die zu B entgegengesezte Orientierung .h. bi . Lemma 1: (vgl. Dann ist G eine Untergruppe von Sn . d.h. welche diese aquivalenten Bedingungen erfullt. f andert den Funktionswert bei Vertauschung zweier Argumente nicht. : : :. Sei G = f 2 Sn j f(x1 . b (n)) fur sign( ) = 1 dieselbe Orientierug wie B . Tripel von Vektoren) (Daumen. denn fur char (K) = 2 gilt 1 = +1 in K. d. 3. falls > 0 ist . x (n)) fur alle (x1 . nur einfacher. : : :. Fur W = K spricht man von einer symmetrischen nLinearform. 2.1) Sei f : V : : : V ! W eine n-lineare Abbildung. ein negativ orientiertes linkshandig. 1. fur sign( ) = 1 die entgegengesetzte.7 Symmetrische n-Linearformen Sei K ein beliebiger Korper.h. : : :. bn) eine Basis des orientierten Vektorraumes V ist. : : :. 2 De nition 1: Eine n-lineare Abbildung. : : :. Lemma 4. bn) dieselbe Orientierung wie B . G enthalt alle Transpositionen (i. G enthalt alle Transpositionen (i. : : :. : : :. xn) 2 V ng. Es gilt daher die rechte-HandRegel. y. : K ::: K ! K (x1.ist also (Einheitsvektor in x. (y1 . xn) = f(x (1) . 2. fur die linke Hand negativ. falls < 0. so hat die Basis (b (1) . Bemerkung: Wenn B = (b1.3. nennt man symmetrisch. j) fur 1 i < j n . Entsprechend nennt man ein positiv orientiertes Dreibein rechtshandig. z-Richtung) positiv orientiert. Zeige nger. Wenn 2 Sn ist. bi+1. : Kn Kn ! K ((x1. : : :. 4. : : :.1. In Korpern der Charakteristik 2 sind alle schiefsymmetrischen n-linearen Abbildungen symmetrisch. xn) 7! x1 : : : xn ist eine symmetrische Bilinearform auf K. f andert seinen Wert beim Vertauschen benachbarter Argumente nicht. : : :. n X i=1 Beispiel: x i yi 61 . Mittel nger) ist fur die rechte Hand positiv orientiert. d. yn )) 7! ist eine symmetrische n-Linearform auf K n. so hat fur 1 i n und 2 IR n f0g die Basis (b1 .h. i + 1) fur 1 i < n. Das Dreibein (d. Die folgenden Aussagen sind aquivalent : 1. bi 1.3. Beweis: Wie bei Lemma 4. G = Sn . xn).. f andert seinen Funktionswert bei einer beliebigen Permutation der Argumente nicht.

3.

: (K n )m ! K ( ( ((x(1) ; : : :; x(1)); : : :; (x1m) ; : : :; xnm))) 7! n=1 m xi(j ) n i j =1 1 n. ist eine symmetrische m-Linearform auf K

5 Quadratische, hermitesche und symplektische Formen
Sei K ein Korper mit von 2 verschiedener Charakteristik.

5.1 Quadratische und symmetrische Bilinearformen

De nition 1: Eine quadratische Form auf einem K-Vektorraum ist eine Abbildung q : V ! K mit den folgenden Eigenschaften: 1. q( v) = 2 q(v), 2 K, v 2 V ;
2. Die Abbildung :V V ! K (x; y) 7! q(x + y) 2q(x) q(y) ist bilinear (und daher eine symmetrische Bilinearform).

Beispiel 1:
1. Sei q : Kn ! K (x1; : : :; xn) 7! x2 + : : : + x2 : 1 n 1 (x; y) = 2 (q(x + y) q(x) q(y)) n 1X = 2 ((xi + yi )2 x2 yi2 ) i =
n X i=1 i=1

Dann gilt

xi yi :

O ensichtlich ist bilinear, Eigenschaft (1) ist klar. Fur K = IR kann q(v) als das Quadrat der Lange von v aufgefa t werden (Satz des Pythagoras). ye2 e2

6 6 6

v = y e2 + x e1 = (x; y) p p Lange von v = jvj = x2 + y2 = q(v). e1

-

xe1

-62

2. Sei m : IR4 ! IR, m(x0 ; x1; x2; x3) = x2 + x2 + x2 x2 die Minkowskische Form. Dann 1 2 3 0 ist (x; y) = 1 (m(x + y) m(x) m(y)) = x1y1 + x2y2 + x3y3 x0y0 das Minkowskische 2 Skalarprodukt. Vektoren v 2 IR4 nennt man in der Speziellen Relativitatstheorie raumartig, wenn m(v) > 0; zeitartig, wenn m(v) < 0; lichtartig, wenn m(v) = 0; v 6= 0. 3. Sei V ein K-Vektorraum, l 2 V , q(x) = l(x)2 und 2 l(x)2 l(y)2 (x; y) = l(x + y) 2 2 l(y)2 l(x)2 l(y)2 = l(x) + 2l(x)l(y) + 2 = l(x) l(y): ist bilinear, und es gilt: q( x) = l( x)2 = 2 l(x)2 = 2 q(x):

De nition: O enbar bilden die symmetrischen Bilinearformen einen Untervektorraum des
(q + q)(x) = q(x) + q(x) ~ ~ ( q)(x) = q(x);

K-Vektorraumes L(V; V ; K) aller Bilinearformen auf V (vgl. 4.3). Der Vektorraum aller quadratischen Formen auf V wird wie folgt de niert: wobei q; q quadratische Formen auf V , x 2 V , 2 K sind. ~

Satz 1: Seien x; y 2 V , q eine quadratische Form und eine symmetrische Bilinearform. Die
Abbildungen q(x) q(y) (f(q))(x; y) = q(x + y) 2 (g( ))(x) = (x; x)

fQuadratische Formen auf V g

f;g

! fsymmetrische Bilinearformeng
(d.h. f(q) = aus Def.1)

Beweis:

sind zueinander inverse Isomorphismen von Vektorraumen. f(q) ist nach De nition 1 eine Bilinearform. f ist o ensichtlich eine lineare Abbildung. q = g( ) ist eine quadratische Form, denn q( x) = ( x; x) =
2

(x; x) = 2 q(x):

63

also (~) = q: q Fakt 1: Fur quadratische Formen q gilt die Parallelogrammidentitat: q(x + y) + q(x y) = 2 (q(x) + q(y)): Beweis: Sei = f(q). Dann gilt q(x + y) + q(x y) = (x + y; x + y) + (x y; x y) = (x; x) + 2 (x; y) + (y; y) + (x; x) 2 (x; y) + (y; y) = 2(q(x) + q(y))

= (x; y) Weil bilinear ist, ist es auch ~. Es folgt, da q = g( ) eine quadratische Form ist. g ist o ensichtlich linear. f g = Id folgt aus ( ), denn in Bezeichnungsweisen von ( ) gilt f(g( )) = ~ nach De nition von f und g. g f = Id : Sei q quadratische Form, = f(q), q = g( ). Dann gilt ~ q = (x; x) = q(x + x) 2q(x) q(x) ~ = 2q(x) = q(x); 2

Sei ~(x; y) = q(x+y) q(x) q(y) . Dann gilt ( ): 2 1 ( (x + y; x + y) (x; x) (y; y)) ~(x; y) = 2 bilinear 1 ( (x; x) + (x; y) + (y; y) = (x; x) 2 1 ( (x; y) + (y; x)) = 2
Symmetrie

(y; y))

2

De nition 2:
Mat B ( ) = ( (bi ; bj ))n =1 : i;j 2. Eine n n-Matrix ist symmetrisch,falls AT = A, d.h. fur A = (aij )n =1 gilt aij = aji i;j fur alle 1 i; j n.

2

1. Sei eine symmetrische Bilinearform auf V und B = (b1; : : :; bn) eine Basis von V . Wir de nieren die Matrixdarstellung von bezuglich B als

Beispiel:

P 1. Die symmetrische Bilinearform ((x1 ; : : :; xn); (y1 ; : : :; yn)) = n=1 xi yi hat bezuglich der i Standardbasis B = (ei )n=1 , ei = ( ij )n=1 , die Matrixdarstellung i j
Mat B ( ) = ( (ei ; ej ))n =1 = i;j 64
n X k=1 ik jk = ij ;

Die symmetrische Bilinearform ((x0 . B = (b1 . y 2 K n als n 1-Matrizen und 1 1-Matrizen als Elemente von K betrachtet werden. Zur Erinnerung: 0x 1 1 n n ! V. Mat B : : Bilinearformen . en ) die Standardbasis ist. y) = (iB1 (x))T A (iB1 (y)) eine 1 1-Matrix. : : :.9 8 Symmetrische 9 = = < < Matrizen mit . y 2 V de niert. B . y) = ((g(A))(x.also Mat B ( ) = 1n . bn) die dazu duale Basis des dualen Vektorraumes V . 2 Folgerung: Sei eine symmetrische Bilinearform auf K n und B = Mat B ( ). y 2 V und A 2 Mat (n. : : :. (y0..B ( ): 65 . Wenn AT = A gilt. O enbar ist g(A) eine Bilinearform auf V (Linearitat von iB und Distributivitat des Matrizenproduktes). also ein Element von K. n. K) ist (g(A))(x. Sei : V ! V durch ( (x))(y) = (x. y) fur x. 2. A iB : K @ i=1 xn (Elemente von K n als n 1-Matrizen) ist ein Isomorphismus. : : :. bn) eine Basis von V . x1). Die Minkowskische Form aus Beispiel 1. ! : Koe zienten aus K auf V ein Isomorphismus von K-Vektorraumen. : : :. y) = xT B y. 2 Fakt 3: Sei V ein K-Vektorraum. da die auf diese Weise de nierte Abbildung g zu Mat B invers ist. wobei B = (e1 . y))T = (iB1 (y))T AT ((iB1 (x))T )T = (iB1 (y))T A ((iB1 )(x)) = g(A)(y. y 2 K n (x. Beweis: Wir geben eine inverse Abbildung g zu Mat B an. B = (b1.2 hat bezuglich der Standardbasis die Matrixdarstellung 0 1 0 0 01 B C Mat B ( ) = B 0 1 0 0 C : @ 0 0 1 0A 0 0 0 1 3. bn) eine Basis von V . Fur x. Dann gilt fur x. Dann gilt Mat B ( ) = Mat B. C 7! X xibi . x): Man pruft leicht nach. so gilt (g(A))(x. y1 )) = (x0 + x1 )(y0 + y1 ) hat bezuglich der Standardbasis die Matrixdarstellung Mat B ( ) = 1 1 : 1 1 Fakt 2: Sei B = (b1. wobei x. dann ist die Abbildung 8 Symmetrische n n.

an. 2 Bemerkung: Fur f = Id n gilt f ( ) = . f(y)) und (f (q))(x) = q(f(x)): f ( ) ist eine symmetrische Bilinearform und f (q) eine quadratische Form auf W . Der Nullraum von ist als de niert.1) von f : V ! V bzgl.B (f): ~ ~ ~ Beweis: O enbar f ( ) = f f.j (bj ) = Gema der De nition der dualen Basis folgt dann akj = = Def. falls N( ) = f0g gilt. Dann gilt Mat B (f ( )) = Mat B. Der Rang. : : :.B (f)T Mat B ( ) Mat B. B = (b1 .j n X i=1 n X ~ aij bi : i=1 ~ Wende dies auf V = V und A = (aij )n =1 = Mat B.B ( ) = Mat B ( ). da Mat B. bn) und ~ b B = (~1 .1.2 Nicht ausgeartete Bilinearformen. eine symmetrische Bilinearform und q eine quadratische Form auf V . Wir de nieren fur x. y) = 0g Wir behalten die Voraussetzung char(K) 6= 2 bei. ~n) lautet b Mat B. 5. bk): 2 Aus De nition 2 folgt nun. also macht Fakt 4 in diesem Fall eine Aussage uber die Anderung von MatB ( ) bei Anderung der Basis. Wende Fakt 3. Der Rang von ist als Rang ( ) = dim(V ) dim(N( )) de niert.B = (aij )n =1 mit f(bj ) = ~ i. y 2 W (f ( ))(x. von aij bi : n X k=1 k bk ) = i ) () (y) bi (bk ) = ki (allgemein: bi ( n X n (y) X bi (bk ) aij ik aij = i=1 i=1 n X ! () aij bi (bk ) =( (bj ))(bk ) i=1 = (bj .1.~ Beweis: Die De nition der Matrixdarstellung (in 3.4. y) = (f(x). : : :.3.B ( ) an: i. und Fakt 3. Sei V endlichdimensional. Dann nennt man nicht ausgeartet. 66 . ~ Fakt 4: In den Bezeichnungen der De nition sei B eine Basis von W und B eine Basis von V . N( ) = fx 2 V j 8 y 2 V : (x. De nition 3: Sei f : W ! V linear. De nition 1: Sei eine symmetrische Bilinearform auf V .

Die Aquivalenzklassen nennt man Isomorphieklassen. ) und (V . O enbar ist die Isomorphie eine ein Isomorphismus f : V ! V Aquivalenzrelation auf der Klasse aller symmetrischen Bilinearformen. Fakt 3: Sei V endlichdimensional und W V ein Vektorraum mit W N( ) = V . : : :. Sei auf IRn gegeben durch (x. Sei auf IR4 das Minkowskische Skalarprodukt.1 = dim(Bild( )) Fakt 3. ist nicht ausgeartet. gilt ker(l) 6= f0g. Sei Mat B ( ) = Mat B ( ~) und seien B = ~ ~ b ~ (b1. (x. 2 Fakt 2: Eine symmetrische Bilinearform hat denselben Rang wie ihre Matrixdarstellung. ist ein Isomorphismus. : : :.4. Sei auf K n wie in (1) gegeben. V sind ~ genau dann isomorph. : : :. weil (x. also ist in diesem Fall ausgeartet. '(bn)) eine Basis von V und Mat B ( ) = Mat B ( ~). Dann gilt N( ) = ker(l). 3. Also sind fur endlichdimensionale Vektorraume V aquivalent: 1. ~ von V . denn N( ) = i f0g.2. Dann ist nicht ausgeartet.. wenn zwei Basen B und B mit Mat B ( ) = Mat B ( ~) existieren. Dann ist B 2 ~ 67 . Beweis: Ubungsaufgabe. 2.B ( )) = Rang (Mat B ( )): 2 Beispiel: 1. De nition 2. y) = l(x) l(y).1. Dann ist die Matrixdarstellung von bezuglich der Standardbasis invertierbar. 2. d. : : :. O enbar ist der Rang eine Isomorphieinvariante.1. ~n). gilt Fakt Rang ( ) Def. Beweis: Nach Satz 2. Wenn dim(V ) 2 ist. Zwei symmetrische Bilinearformen . ~ auf endlichdimensionalen Vektorraumen V.2 Rang (Mat = B.5). dann existiert ein Isomorphismus ' : V ! V mit '(bi ) = ~i .1 und Fakt 3. also ist Rang ( ) = n. 4. zwei isomorphe symmetrische Bilinearformen haben denselben Rang. ist Monomorphismus. Dann hat bezuglich der Standardbasis die Matrixdarstellung Mat B ( ) = 1n. Sei l 2 V . y) = n=1 xi yi .= 1 dim(V ) dim(ker( )) Satz 4. falls ~ mit f ( ~) = existiert. b b ~) = : Es gilt ' ( ~ Sei umgekehrt ' : V ! V ein Isomorphismus mit ' ( ~) = und sei B = (b1. ~) sind isomorph. 3. also ist nicht ausgeartet.1.4. ~ De nition 2: Zwei symmmetrische Bilinearformen (V. x) > 0 fur x 6= 0. bn) und B = (~1. P Fakt 4: 1. ~ 2.h.Fakt 1: O enbar gilt N( ) = ker( ) (vgl. bn) eine Basis ~ = ('(b1 ). ~ Beweis: Der erste Fakt folgt leicht aus dem zweiten. Dann ist die Einschrankung von auf W nicht ausgeartet.

: : :. Alle Vektorraume werden als endlichdimensional vorausgesetzt. v) 6= 0. y 2 V mit (x. Sei also 6= 0. x) + 2 (x. bj ) = 0 fur i 6= j gilt. Dann hat V eine Orthogonalbasis . Sei die Behauptung fur Vektorraume kleinerer Dimension als V bewiesen. } {z {z Nach Induktionvoraussetzung gibt es eine Orthogonalbasis (b1 . w) = 0g.1. denn fur x 2 V gilt v) v) x = (x. falls (bi . x) 6= 0. x + y) = (x. denn dann ist jede schiefsymmetrische Bilinearform symmetrisch. Beweis: Angenommen (x. Bemerkung 2: In einem Korper mit Charakteristik 2 ist das Lemma falsch. bezuglich . : : :. Wenn = 0 gilt. falls fur jedes x 2 K eine Quadratwurzel (d. 2 Bemerkung 3: Weil der Beweis von Lemma 1 konstruktiv war. Bemerkung 4: Sei K ein Korper. v) v): | (v. ist es auch der Beweis des Satzes.h. Dabei ist t 0. char(K) 6= 2: Dann existieren zu jedem x 2 K f0g entweder keine oder zwei Quadratwurzeln. Dann gilt 0 = (x + y. aber es gabe x. ein 2 K mit 2 = x) existiert. Dann ist auch y eine Quadratwurzel aus x. v) 6= 0. bn) eine Orthogonalbasis von V . y) + (y. Die beiden Quadratwurzeln y und y sind sie einzigen Quadratwurzeln aus x. : : :. } | (v. y) = 2 (x. Dann ist (v. Lemma 1: Sei V ein Vektorraum und sei eine symmetrische Bilinearform auf V . Der angegeben Beweis ist konstruktiv. bn) von W bezuglich jW . x) = 0 fur alle x 2 V . bn) von V nennt man eine Orthogonalbasis bezuglich . Widerspruch.h. De nition 1: Eine Basis B = (b1. Sei dazu x = y2 .Sei char (K) 6= 2. 2 Bemerkung 1: Der Beweis hatte auch durch Satz 5. b2. De nition 2: K ist quadratisch abgeschlossen. denn wenn z = a + ib eine komplexe Zahl ist. 68 2K v 2W 5. O enbar ist W ein Untervektorraum von V . Nach Lemma 1 gibt es v 2 V mit (v. Sei W = v? = fw 2 V j (v. y) 6= 0. diese ist wegen y 6= 0 von y verschieden. so ist sp sp (a2 + b2) + a + sign(b) a2 + b2 a i 2 2 pt die nichtnegative Quadratwurzel aus der reellen Zahl eine Quadratwurzel aus z.3 Klassi kation der quadratischen Formen Satz 1: Sei eine symmetrische Bilinearform auf V . so gibt es ein x 2 V mit (x. Fur dim(V ) = 0 ist die leere Menge eine Orthogonalbasis. v) v + (x (x.1 gefuhrt werden konnen. so ist jede Basis eine Orthogonalbasis. er gestattet die praktische Berechnunng eines Vektors v 2 V mit (v. d. Wenn 6= 0 gilt. Beweis: durch Induktion nach dim(V ). Dann gilt v 62 W nach Vorraussetzung und W Kv = V . y) 6= 0. denn t2 x = t2 y2 = (t y)(t + y): Beispiel 1: C ist quadratisch abgeschlossen.

wobei r der Rang von ist. bj ) = 0 ij fur 1 i r sonst. dann hat die Basis B = (b1 . 2 Bemerkung 5: Auch dieser Beweis ist konstruktiv. Bemerkung: Wir haben also in diesem Falle eine vollstandige Klassi kation der symmetrischen Bilinearformen auf endlichdimensionalen Vektorraumen bekommen: bis auf Isomorphie ist (V. Bemerkung 6: Weil der Rang von 1n n ist. bn).2). ) und (V .Theorem 2: 1. bi) fur 1 i r von 0 verschieden ist und fur r < i n verschwindet.2. 69 . Sei eine symmetrische Bilinearform auf einem endlichdimensionalen Vektorraum uber einem quadratisch abgeschlossenem Korper K. : : :. (bi . Durch Umordnen von ~ ~ existiert. da eine Zahl r mit 0 r n nach Satz 1). so da si = (bi . Dann stimmt r mit dem Rang von uberein (das folgt aus Fakt 5. : : :. ~) auf endlichdimensionalen K~ Vektorraumen V und V sind (unter denselben Voraussetztungen an K wie im ersten ~ Punkt) genau dann isomorph. wenn dim(V ) = dim(V ) und Rang ( ) = Rang ( ~).2. ) eindeutig durch n = dim(V ) und r = Rang ( ) charakterisiert. Der zweite Punkt folgt aus dem ersten Punkt und aus Fakt 5. De nition 3: Eine Orthonormalbasis von V bezuglich ist eine Basis B = (b1.4. so da (bi . d. ~n) eine Orthogonalbasis von V bezuglich (B existiert b ~ konnen wir erreichen. konnen Orthonormalbasen nur bezuglich nichtausgearteter symmetrischer Bilinearformen existieren. char (K) 6= 2. bi = ( ~i b q ~ii b fur 1 i r fur r < i n die im ersten Punkt des Theorems beschriebene Gestalt.h. r) 2 IN2 mit r n angenommen werden. wobei alle (n. ~ 2. Die symmetrischen Bilinearformen (V. bj ) = ij . Umgekehrt garantiert das Theorem die Existenz von Orthonormalbasen fur nichtausgeartete symmetrische Bilinearformen auf endlichdimensionalen Vektorraumen uber quadratisch abgeschlossenen Korpern mit von 2 verschiedener Charakteristik. ~ b ~ Beweis von Theorem 2: Sei B = (~1 . : : :. Dann existiert eine Basis B = (b1. bn) von V . : : :. Sei qi eine Quadratwurzel aus si . bn) von V mit Mat B ( ) = 1n.

Dann gilt dim(X+ ) + dim(X ) Rang ( ): Beispiel 1: O enbar ist das Euklidische Skalarprodukt auf IRn positiv de nit. bn) von V . ~i) = 0 b b b ^ ^ Dann ist B eine Orthogonalbasis mit (^i .2. Fur x+ 6= 0 sei y = x+ 2 X. dann gilt dim(X) = dim(X+ ) + dim(X ). ist negativ de nit (bzw.~i) falls (~i . ) bestimmt. Lemma 1: Sei eine symmetrische Bilinearform auf einem endlichdimensionalen IR-Vektorraum Beweis: Es gilt X+ \ X = f0g. so da die Einschrankung von auf X+ positiv und auf X negativ de nit ist. Dann existieren a. 1g. ist positiv semide nit. folgt aus Fakt 5. ~i) > 0 b b < bb ^i = p ~i b b > falls (~i . so ist negativ de nit. : : :. bi) = : 1 fur a < i a + b 0 fur i > a + b gilt. Beweis: Wir fuhren zunachst den Beweis der Existenz einer Basis B mit der beschriebenen ~ b ^ b Eigenschaft. falls (v. fur x+ = 0 (und damit x 6= 0) sei y = x . b und n die Isomorphieklasse eindeutig bestimmen. v) 0 fur alle v 2 V . x) > 0 (wegen x 2 X+ f0g) und (x. Insbesondere folgt X \ N( ) = f0g. 0.2 folgt die letzte Behauptung des Theorems. negativ semide nit). Die Zahlen a und b sind dabei eindeutig durch die Isomorphieklasse von (V. Zum Beweis der Eindeutigkeit von a und b benotigen wir De nition 1: ist positiv de nit. mit x 2 X . : : :. b 2 IN mit a+b n und eine 8 1 fur 1 i a < (bi . Wenn eine Basis B mit Mat B ( ) = 1n existieren sollte. denn aus x 2 (X+ \ X ) f0g wurden nach unseren Vorraussetzungen aus jX die widerspruchlichen Ungleichungen (x. ~n) eine Orthogonalbasis von V . In beiden Fallen gilt (x. jX ist nicht ausgeartet. : : :. Sei X = X+ X . falls semide nit) ist. v) > 0 fur v 2 V f0g. Es gilt a + b = Rang ( ). 70 . positiv de nit (bzw. Daher ist positiv de nit. Da a. also ist jX nicht ausgeartet.4 Quadratische Formen auf reellen Vektorraumen Orthogonalbasis B = (b1 . so da Theorem 3 (Tragheitssatz von Sylvester): Sei eine symmetrische Bilinearform uber einem IR-Vektorraum V der endlichen Dimension n. wenn eine Orthonormalbasis B von V bezuglich existieren sollte.~i) falls (~i . falls (v.5. ^n) mit b b 8 p ~i > (b~i. ~i) < 0 b b b b : ~(i~i. die die im Theorem beschriebene Form hat. V und seien X+ und X Unterraume von V . umgekehrt bestimmen sie diese Isomorphieklasse gemeinsam mit n = dim(V ) eindeutig. x) < 0 (wegen x 2 X f0g) folgen. und sei B = (^1 . also kann aus B durch Umordnen der b b Basisvektoren eine Basis B erhalten werden.2. denn sei x = x+ + x 2 X f0g. Sei B = (~1 .4. Aus Fakt 5. y) 6= 0. ^i) 2 f 1.

: : :. es gilt sign ( 3. Insbesondere ist 3. ) ist dann eindeutig bestimmt durch dim(V ). Insbesondere hat V genau dann eine Orthonormalbasis bezuglich . b ~ ~ . ) selbst eindeutig bestimmt sind. bi = ( ij )n=1 . Eindeutigkeit von a und b: O enbar genugt es zu zeigen. bn) gegeben. da a und ~ ~ b durch (V. ist genau dann positiv bzw. b = 0. eine Orthonormalbasis des IRn ist durch die Standardbasis (b1. Also sind a und b eindeutig bestimmt. b b b Weiterhin gilt a = Rang ( ) b = Rang ( ) ~ = a. : : :. n ist das Euklidische Skalarprodukt i auf dem IRn. negativ semide nit. negativ de nit. a. sign ( n ) = n. : : :. falls fur jedes U V mit W U die Einschrankung von auf U nicht positiv de nit ist. Fakt 1: 1. : : :. n ist positiv de nit. Bemerkung 2: Der Beweis der Existenzaussage in Theorem 3 ist konstruktiv. a = n. Beispiel 2: n ((x1 . Analog de niert man maximale negativ de nite Unterraume. ba ) und X die lineare Hulle von C = (~a+1 . Bemerkung 1: Die Isomorphieklasse (V. yn)) = Pn=1 xiyi . Sei n = a + b. (y1 . b. ~n).1 das Minkovskische Skalarprodukt auf dem IR4 . Sei B eine andere Orthogonalbasis mit B = ~1. Indem wir die Rollen von B und B vertauschen. 2 Beweis von Theorem 3. : : :.1 ) = 2. : : :. : : :. sign( a. j a X xi yi a. a = 0 in Theorem 3 gilt. Jeder positiv bzw. (b b 8 1 fur 1 i a ~ < ~ ~ ~ b (bi . falls b = 0 bzw.also dim(V ) dim(X) + dim(N( )) = dim(X+ ) + dim(X ) + dim(N( )). denn Rang ( ) = a + b = a + b ~ 2 Fakt: ist genau dann positiv bzw. en) hat a. also b = ~. xn). Aus Beispiel 1 folgt b a + b = Rang ( ) dim(X+ ) + dim(X ) = a + ~ b ~ Also b ~.b ((xi )n=1 . De nition 3: Ein bezuglich positiv de niter Unterraum W V ist maximal positiv de nit.b die in Theorem 3 beschriebene Gestalt.b ist nicht ausgeartet. b = dim(V ) in Theorem 3 gilt. falls a = dim(V ) bzw. 2 De nition 2: In der Situation von Theorem 3 nennt man sign ( ) = a b die Signatur von . erhalten wir auch b ~. bi) = : 0 fur i > a + ~ 1 fur a < i ~ + ~: ~ a b Sei X+ die lineare Hulle von C+ = (b1. rang ( ) und sign( ). 71 . und Mat C ( jX ) = 1~. (yi )n=1 ) = i i i=1 n X i=a+1 xiyi : Bezuglich der Standardbasis (e1 . sign( ) und zum Test auf positive De nitheit. ~a+~ ) b~ b~ b Dann ist C+ eine Orthogonalbasis von X+ .b ) = a b. Insbesondere ergibt sich daraus ein praktisches Verfahren zur Bestimmung von a. negativ de niten Unterraum enthalten. negativ de nite Unterraum W von V ist in einem maximal positiv bzw. wenn positiv de nit ist.

(V+ V ) \ N( ) = f0g folgt aus dem Beweis von Lemma 1. negativ de nit ist. negativ de niten Unterraume haben die Dimension a bzw. Falls W selbst nicht maximal ist. Durch absteigende Induktion nach dim(W). Wir konnen auch voraussetzen. : : :. V+ V N( ) = V : dim(V+ V N( )) = dim(V+ ) + dim(V ) + dim(N( )) = a + b + dim(N( )) = rang ( ) + dim(N( )) = dim(V ): 2 Fakt 2: Sei eine nicht ausgeartete symmetrische Bilinearform auf einem endlichdimensionalen reellen Vektorraum V . Sei (vi0 .C (Id)T Mat C ( ) Mat B. nicht ausgeartet . Sei C = (c1 . so gibt es einen Unterraum U W. va eine Orthonormalbasis ~ ~ von W bezuglich . dann gilt nach Fakt 5. Die Behauptung ist klar fur dim(W ) = dim(V ). bn) eine Basis von V und habe b dieselbe Bedeutung wie in unserer Formulierung von Theorem 3. Wenn a0 > ~ ware. Wegen der Eindeutigkeit aus Theorem 3 folgt a0 = a.B ( ). Sei V+ V ein maximal positiv de niter Unterraum und V ein maximal negativ de niter Unterraum. 3. V+ \ V = f0g ist klar. vi) < 0 fur a0 < i a0 + b0. Sei W maximal positiv de nit.1 Mat B ( ) = Mat B. : : :. sei B = (b1 . vi0 )j fur i rang ( ). cn) eine andere Basis von V . : : :. Dann gilt V = V+ V N( ). Aus dem Beweis von Satz 5. Dann gilt: ( 1)b det(Mat B ( )) > 0: Isomorphismus . vi = vi0 fur i > rang ( ). : : :. ~ 0 ~ wenn i > rang ( ). : : :.Beweis: 2. Bemerkung: Mat B ( ) = Mat B.1 folgt. im Widerspruch zur Eigenschaft von W . 2. ~ p Sei vi = vi = j (vi0 . negativ de niten Unterraum enthalten. Also a0 = a. vi ) > 0 fur 1 i a0 und 0~ (vi . Sei die Behauptung fur alle de niten Unterraume gro erer Dimension als W bewiesen. da (vi . 1.3. : : :. va . va) zu einer ~ 0 Orthogonalbasis (v1 . vn) erganzen kann. b (aus Theorem 3). ~ 3. va+1 .4. Dann 8 1 1 i=j a < (vi . vj ) = : 1 a0 < i = j rang ( ) 0 sonst. vi0 ) = 0 genau dann. Alle maximalen positiv bzw. so da U ebenfalls positiv bzw. da man (v1 . so ware W + IRva+1 ein a a positiv de niter Unterraum von V . Dann ist U nach der Induktionsvoraussetzung in einem maximalen positiv bzw. det(Mat B ( )) 6= 0. also a = a.C (Id): () Beweis von Fakt 2: Sei C eine Basis von V mit 8 1 i=j a < (Mat C ( ))ij = : 1 a < i = j a + b 0 sonst 72 . Sei a = dim(W) und sei v1. Dann a0 ~.

0.. Also ist entweder Vn 1 oder Vn ein maximaler positiv de niter Unterraum.C (Id)) = det(Mat B. 5. . O enbar ist die Einschrankung jVk Vk ebenfalls positiv de nit (und daher nicht ausgeartet). x3. Sei D(V ) der Raum der schiefsymmetrischen n-Linearformen auf V . da dim(D(V )) = 1 gilt. bk g).C (Id)T ) det(Mat C ( )) det(Mat B. . 0. : : :. die Determinanten der eingerahmten Matrizen positiv sind. Im letzten Fall ist positiv de nit. C A .C (Id))( 1)b det(Mat B. Sei V ein Vektorraum der endlichen Dimension n uber einem Korper K. . . so tut dies auch jVn 1 . Dann ist genau dann positiv de nit. : : :. wobei 2 K eindeutig bestimmt ist.(vgl.. Nach Satz 1 ist dies genau dann der Fall. falls die durch A de nierte symmetrische Bilinearform A (x. wenn fur 1 k n det(Mat Bk ( jVk Vk )) > 0: Bemerkung: Eine symmetrische Matrix A mit reellen Eintragen ist positiv de nit. Sei d 2 D(V ) f0g.also det(Mat Bk ( jVk Vk )) > 0.5 Die Gramsche Determinante. . : : :)g B 31 32 33 @ . im ersten Fall ergibt Fakt 1 a = dimVn 1 = n 1 und daher b = 1. 0. : : :)g 12 B a11 a22 a13 : : : C v2 = f(x1. und sei Bk die Basis (b1. char (K) 6= 2.C (Id)) = ( 1)b det(Mat B. x2. bk ) von Vk .. x2. Wir wissen aus Kapitel 4. bn) eine Basis des reellen Vektorraumes V . Theorem 3). sei Vk = L(fb1. Beweis von Satz 1. wenn in 0 a a a : : : 1 v1 = f(x1. : : :. Sei die Behauptung fur alle Vektorraume kleinerer Dimension als n bewiesen. Nach ( ) gilt dann ( 1)b det(Mat B ( )) = ( 1)b det(Mat B. 2 c Beispiel: a b ist positiv de nit . etwa fur n = 2. Praktischen Wert hat dieses Kriterium nur fur kleine n. Hinlanglichkeit. Wenn die Bedingung des Kriteriums erfullt. . Induktion nach n: Die Behauptung ist klar fur n = 1. . Dann kann jedes e 2 D(V ) als e = d geschrieben werden. y) = xT A y positiv de nit ist.C (Id))2 > 0 2 Satz 1: Sei B = (b1 . a > 0 und ab c2 > 0. : : :)g B a21 a a23 : : : C v3 = f(x1. Sei eine symmetrische Bilinearform auf V . und Fakt 2 wurde det(Mat B ( )) < 0 ergeben. also ist jVn 1 nach der Induktionsannahme positiv de nit. die Gruppen O( ) und SO( ) 73 . Notwendigkeit: Sei positiv de nit. c Bemerkung: Die Einschrankung einer nichtausgearteten inde niten Form auf einen Unterraum kann ausgeartet sein.

: : :. : : :. : : :. w1. wj ))n =1. da G eine 2n-Linearform auf V ist. Fur feste v1 . : : :.d 2 K mit c(v1 . vn)d(w1. : : :.d d(v1 . Dann gibt es eine eindeutig bestimmte Konstante c . w 2 V : (u(v). bn. : : :. vn.d 2 K. wenn ausgeartet ist. vn. d. wm 2 V gilt det(( (vi . : : :. : : :. vn)) = det(Mat S (v1 . : : :. u(vn))d(u(w1).d = G(b1. : : :.j gegeben ist.dn = 1. vn) 2 K mit: G(v1. vn) ebenfalls ein Element von D(V ) und es gibt c . : : :. bn. : : :. vn) = det(Mat Z (v1 . folgt daraus det(u)2 = 1.h. : : :. wn ist. i.j Der Beweis ist Ubungsaufgabe. vn. Beweis: Sei G(v1.1. : : :. vn). 2 Beispiel 1: Fur das Euklidische Skalarprodukt nn und fur dn(v1 . : : :. b1. wn): Es gibt eine Basis (b1. : : :.d . gilt c n . : : :. also j det(u)j = 1. bn) eindeutig bestimmt. u(w)) = (v. wn) = c(v1 . wn) () i. : : :. : : :. die schiefsymmetrisch in v1 . O( ) ist die orthogonale Gruppe von . dann gilt c(v1 . w1.2. bn) = 1. u(wn)) = G(u(v1). Die Identitat ( ) folgt in diesem Fall aus der Multiplikativitat der Determinante und aus Mat Z (v1 . wn 2 V die Gramsche Determinante det( (vi . : : :. vn . wn) eine schiefsymmetrische Linearform auf V . : : :. : : :. : : :.d = 0 genau dann. : : :. vn)d(w1. bn) = Fakt 5. Die zweite Behauptung ist trivial. : : :. : : :. : : :. Die letzte Aussage folgt aus G(b1. vn. : : :. : : :. : : :. versehen mit der Hintereinanderausfuhrung von Automorphismen als Gruppenoperation. w).Satz 1: In der soeben beschriebenen Situation sei eine symmetrische Bilinearform auf V .B ( )) und Fakt 5. : : :. bn) von V mit d(b1. Bemerkung: ( ) gilt auch fur nichtsymmetrische Bilinearformen. wj ))n =1 = c . : : :. b1. also gibt es ein eindeutig bestimmtes c(v1 .d d(v1 . w1. 74 2 . Beweis: Sei G die linke Seite von ( ) wie beim Beweis von Satz 1. : : :. wn ! G(v1 .1. wn) die linke Seite von ( ). wj))m =1 ) = 0. vn. vn)). w1. vn)d(w1.d d(v1. u(wj ))n =1 ) = i. wn) = c . i. u = . vn)Mat S (w1 . : : :. und c .j Wir setzen von nun an als nicht ausgeartet voraus. : : :. Fakt 1: Fur m > n und v1 . wn) = ( n (vi . u(vn).d d(u(v1 ). : : :. Aus den Eigenschaften der Determinante von Matrizen folgt. d = n 2 c . vn) = G(v1 . vn ist also w1. Es gilt c .j G(v1 . vn und in w1. : : :. : : :. u(wn)) = det( (u(vi ). wn) = c . b1. De nition 1: O( ) ist die Menge aller Automorphismen u von V mit der Eigenschaft 8 v. u(w1).d 6= 0 ( nicht ausgeartet). vn )d(w1. wn) Weil c . dn 2 D(IR ). : : :. : : :. bn): Also ist c(v1 . : : :. vn) = c . so da fur v1 . : : :. Fakt 2: Fur alle u 2 O( ) gilt j det(u)j = 1. w1. w1. : : :. Es gilt c .3 2 det(Mat B ( )) = det(Mat B. : : :.d det(u)2 d(v1. Es gilt c . : : :. : : :. vm.

De nition 2:

SO( ) = fu 2 O( ) j det(u) = 1g = ker(O det f1; 1g) O( ): !
a X +b +b xi yi a;b ((xi )a=1 ; (yi )a=1 ) = i i i=1 a+b X j =a+1

SO( ) ist eine Untergruppe von O( ). Erinnere an x i yi

auf IRa+b und n = n;0 .

De nition 3:

O(n) = O( n ); SO(n) = SO( n ); O(a; b) = O( a;b ); SO(a; b) = SO( a;b ):

Beispiel 2: (Wir identi zieren hier 2 2-Matrizen mit Endomorphismen des IR2).
sin Sei u(') = cos '' cos ' . Es gilt fu(') j ' 2 IRg = SO(2), denn u(') uberfuhrt die sin ' Orthonormalbasis ((1; 0); (0; 1)) in die Orthonormalbasis ((cos '; sin '); (sin '; cos ')). Es gilt det(u(')) = 1, also u(') 2 SO(2). Alle Elemente von SO(2) konnen als u(') dargestellt werden. Dabei gilt u(') = u('0) genau dann, wenn ' '0 = 2 Z. Es gilt u(')u( ) = u(' + ). u(') ist eine Drehung um '. t sinh Sei l(t) = cosh t cosh t . Dann gilt l(t) 2 SO(1; 1). Jedes Element von SO(1; 1) kann sinh t in dieser Form auf eindeutige Weise dargestellt werden und l(s)l(t) = l(s + t). Die O(a; 1) spielen die Rolle der Lorenzgruppen fur die spezielle Relativitatstheorie mit a raumlichen Dimensionen, xa+1 spielt dann die Rolle der Zeitkoordinate. Fakt 3: Sei q(x) = (x; x) die zu gehorende quadratische Form (vgl. Satz 5.5.1). Dann gilt u 2 O( ) genau dann, wenn q(u(x)) = u(x) fur alle x 2 V . 1 2 Beweis: Beachte (x; y) = 2 ( (x + y; x + y) (x; x) (y; y))...

5.6 Euklidische Vektorraume

Beispiel: V = IRn, hx; yi = n(x; y). k(xi)n=1k = Pn=1 x2 ist nach Pythagoras die Lange der i i i Strecke von 0 nach (x1 ; : : :; xn). Man kann also kvk als die Lange von v deuten. Dann sollte die Dreiecksungleichung ku + vk kuk + kvk gelten.

In diesem Abschnitt ist K = IR. De nition 1: Ein Euklidischer Vektorraum ist ein Paar (V; h ; i), wobei V ein reeller Vektorraum und h ; i : V V p IR, (v; w) ! hv; wi eine positiv de nite, symmetrische ! Bilinearform ist. Dann sei kvk = hv; vi.

p

75

Satz 1: (Cauchy-Schwarz). Sei h ; i positiv de nit und v beliebig (auch unendlichdimensional). Dann gelten die Cauchy-Schwarzsche Ungleichung
jhx; yij kxkkyk
und die Dreiecksungleichung

kx + yk kxk + kyk:

Beweis: Sei kxk = kyk = 1. Dann gilt 0 hx y; x yi = hx; xi + hy; yi 2hx; yi = 2 2hx; yi: () Es gilt also hx; yi 1 und auch hx; yi 1, also hx; yi 1. Also gilt jhx; yij 1, falls kxk = kyk = 1. Seien nun x und y beliebig. Wenn einer dieser Vektoren verschwindet, ist die Cauchy-Schwarzsche Ungleichung trivial. Andernfalls gilt k kxk k = 1, k kyk k = 1, also x y
kxk ; kyk
also jhx; yij kxkkyk. Beweis der Dreiecksungleichung: x y 1;

kx + yk2 = kxk2 + kyk2 + 2hx; yi kxk2 + kyk2 + 2kxkkyk = (kxk + kyk)2 : Bemerkung 1:

( )

In ( ) tritt Gleichheit nur fur x = y ein. Deswegen tritt in der Cauchy-Schwarzschen Ungleichung genau dann Gleichheit ein, wenn dim(L(x; y)) 1. Ebenso wird die Dreiecksungleichung streng, sofern nicht x oder y verschwindet, oder ein positives 2 IR existiert mit x = y. p p k xk = h x; xi = 2 hx; yi = j jkxk. Aus der Dreiecksungleichung folgt, da (V; d) mit d(x; y) = kx yk ein metrischer Raum ist: d(x; z) = kx z k = k(x y) + (y z)k kx yk + ky z k = d(x; y) + d(y; z). V ist ein reeller Hilbertraum, falls dieser metrische Raum vollstandig ist. Dies ist immer der Fall fur dim(V ) < 1.

De nition 2: Sei V wie in Satz 1 de niert. Dann nennen wir zwei Vektoren x; y 2 V orthogonal, falls hx; yi = 0; dann schreiben wir x ? y. Bemerkung 2: (Pythagoras) x ? y , kx + yk2 = kxk2 + kyk2 , kx yk2 = kxk2 + kyk2 . De nition 3: Sei V wie in Satz 1 de niert. Dann sei fur x; y 2 V f0g w(x; y) der durch die Eigenschaften 0 w(x; y) und hx; yi = kxkkyk cos(w(x; y)) eindeutig bestimmte Winkel
(Er existiert nach der Cauchy-Schwarzschen Ungleichung).

Bemerkung 3: kx yk2 = kxk2 + kyk2 2hx; yi = kxk2 + kyk2 2kxkkyk cos(w(x; y)) ist der

Cosinussatz der ebenen Trigonometrie. Bemerkung 4: (Gram-Schmidtsches Orthogonalisierungsverfahren): Sei B = (b1 ; : : :; bn) eine 76

Basis des euklidischen Vektorraumes V . Dann erhalten wir durch folgende induktive Vorschrift eine Orthonormalbasis (v1 ; : : :; vn): v1 = kb1 k b1 Pk 1 i vk = bk Pk=11hbk ; viivi ; kbk i=1 hbk ; viivi k falls v1; : : :; vk 1 schon P berechnet sind. Man pruft induktiv, da L(v1; : : :; vk 1) = L(b1; : : :; bk 1). Also bk 6= P k=11hbk ; viivi . Damit ist vk wohlde niert. O enbar kvk k = 1. Fur i k 1hb ; v iv ; v i = chb ; v i c Pk 1hb ; v ihv ; v i = 0, wobei wir j < k gilt hvk ; vj i = chbk k j i=1 k i i j i=1 k i i j im Sinne eines Induktionsbeweises schon vorausgesetzt haben, da die (v1 ; : : :; vk 1) orthogonal sind, d.h. hvi ; vj i = ij fur 1 i; j k 1. Fakt 1: Sei V ein beliebiger reeller Vektorraum und h ; i positiv de nit. Sei (e1 ; : : :; en) bezuglich h ; i orthonormal. 1. Fur x 2 V gilt die Parsevalsche Ungleichung
n X i=1

hx; eii2 kxk2:

2. Die Gleichheit gilt in dieser Ungleichung genau dann, wenn x = n=1 hx; eiiei . Dies ist i genau dann fur alle x 2 V der Fall, wenn (e1 ; : : :; en ) eine Basis von V ist. 3. Sei (e1 ; : : :; en) eine Orthonormalbasis, dann gilt

P

hx; yi =
fur x; y 2 V .

n X i=1

hx; eiihy; ei i

Beweis: Sei x = x Pn=1 hx; eiiei . Dann gilt ~ i
hx; ej i = hx; ej i ~ kxk2 = kxk2 + k ~
i n X i=1

n X i=1

hx; eiihei ; ej i = 0;
n X i=1

P also auch hx; n=1 hx; eiiei i = 0. Nach Pythagoras gilt ~ i
hx; ei iei k2 = kxk2 + ~
i=1 i i i

hx; ei i2 ;
i

Pn hx; e i2 = kxk2. Daraus folgen (1) und der erste Teil von (2). Wenn x = 0 ist ~ ~ also kx2k i i=1 fur alle x 2 V , so erzeugen die b1; : : :; bn V und Pn eine Basis. Wenn (e1 ; : : :; en ) eine Basis ist, sind so folgt aus der Orthogonalitat der e , da x = e , = hx; e i und x = 0 gilt. ~
Weiterhin gilt

hx; yi = h hx; eiiei ;
i=1

n X

n X j =1

hy; ej iej i =

n X

i;j =1

hx; ei ihy; ej ihei ; ej i =

n X i=1

hx; ei ihy; ei i:
2

77

vi = 0 und damit v = 0. Sei r = 1 : V ! V der zu inverse Isomorphismus. bi i fur 1 i d. denn pX (x) = x fur x 2 X.Satz 2: Sei (V. also ist ein Isomorphismus. bi i = hv. X Bemerkung 5: Satz 2 und Satz 3 gelten fur reelle Hilbertraume ahnlich. allerdings ist es notwendig. xi = hv. wenn nicht ausgeartet ist. Es gilt N( ) = ker( ). um V mit V zu identi zieren. y 2 V de niert. : : :. da X abgeschlossen ist.2. biibi 2 X. Dann ist nicht ausgeartet. also v pX (v) 2 X ? . Sei (x. i) ein Euklidischer Vektorraum. Fur eine beliebige symmetrische Bilinearform auf V war : V ! V durch ( (x))(y) = (x. xi fur alle x 2 X. Sei l ein lineares Funktional auf V . Bemerkung: Es gilt p2 = pX . also hpX (v). Aus v 2 X \ X ? folgt nach De nition 4 hv. y) fur alle x. xi: 2 De nition 4: Fur einen Unterraum X V sei X ? = fy 2 V j 8 x 2 X : hx. Also X + X ? = V . r(l)i: Durch r : V ! V ist ein Isomorphismus de niert. y) = hx. h . yi. Dann leistet r das Gewunschte: l(x) = (r(l))(x) = (r(l). yi = 0g das orthogonale Komplement zu X.1 und 5. so geht diese De nition in die in Abschnitt 2 gegebene De nition uber. 2 De nition 5: Sei X ein Unterraum eines Euklidischen Vektorraumes V . Satz 3: Fur jeden Unterraum X eines Euklidischen Vektorraumes V gilt X X ? = V: Beweis: Sei (b1. das lineare Funktional aus Satz 2 als stetig vorauszusetzen (Riesscher Satz) und in Satz 3 zu fordern. Dann gibt es genau ein r(l) 2 V mit der Eigenschaft 8 v 2 V : l(v) = hv. Bemerkung: Wenn man den Isomorphismus r : V ! V aus Satz 2 benutzt. bd) eine Orthonormalbasis von X. 78 . Fur v 2 V sei pX (v) = Pd=1hv. Die durch pX (v) 2 X und v pX (v) 2 X ? (nach Satz 3) eindeutig de nierte Abbildung pX : V ! V nennt man den Orthogonalprojektor auf X. also ist die Summe X + X ? eine direkte Summe. wegen dim(V ) = dim(V ) ist also genau dann ein Isomorphismus. x) = hr(l). i Man pruft leicht hpX (v). Beweis: Erinnere an 5.

dim(V ) dim(V ) = 1 = ~ ~ dim V ? ). : : :. : : :. : : :. 0 = v1 hv1 . . Sei d 2 D(V ) normiert.h. wn) = 1. xn 1). v2. . v2. Sei h 2 V ? und khk = 1. vn) = f i vi j 0 das von den vi erzeugte Parallelspat. Dann gilt 1. so ist (h. denn alle diese n Vektoren alle Unterraume X V . hih. d 2 D(V ) nennt man normiert. : : :. wenn 2 = 1. : : :. : : :. Dann gilt c = ch . Daraus folgt d(v1 . : : :. : : :. : : :. vn): 2 Folgerung 1: Sei n X 1g S(v1 . vn)d(w1. vn ): Beweis: Die erste Behauptung folgt sofort aus De nition 6. 3. i. denn wenn b1. v2. w1. : : :. w1i : : : hv1. wenn die folgenden aquivalenten Bedingungen erfullt sind: 1. bn 1 eine Ortho~ normalbasis fur V ist. vn) linear abhangig. bn)j = 1 fur eine geeignete Orthonormalbasis b1 . : : :. vn) ~ = hv1 . Dann gilt v1 2 (IRh)? = V .d > 0. hid(h. hid(v2 .h.. vn 2 V gilt ~ d(v1. ~ ~ d(x1. : : :. jd(b1. b1. x1. : : :. i. Sei d normiert und 2 IR.. bn 1) eine Orthonormalbasis fur V . Also ist (v1 0 ~ gehoren zu dem (n 1)-dimensionalen Unterraum V . = d(v1 . vn orthonormal ist die Gramsche Determinante G(v1. : : :. Beweis: Sei d 6= 0 beliebig. : : :. v2. ~ 2. : : :. vn) = 0 wegen der Schiefsymmetrie von d. Moge das n-dimensionale Volumen von Parallelspaten im n-dimensionalen Euklidischen Raum folgende Eigenschaften haben: 79 i=1 . denn aus Satz 3 folgt leicht X ?? = X fur 0 ~ Sei v1 0 . v2. : : :. xn 1) = d(h. : : :. 2. hv1 . w1i : : : hvn. Also folgt 0 0 d(v1. bn von V . wn): . denn fur vi = bi und v1 . : : :. jd(b1. O enbar ist d genau dann normiert. vn. x1. bn)j = 1 fur jede Orthonormalbasis b1. (1))(3) folgt aus dem Satz uber die Gramsche Determi- Fakt 2: Mit d ist auch d normiert. vn) = d(v1.De nition 6: Sei n = dimV . Es gibt genau zwei normierte Elemente von D(V ) und zwar in jeder Halbachse von D(V ) genau eines. xn 1 2 V ~ de niert ein normiertes Element von D(V ). : : :. Fur v1 2 V und v2 . wni nante. vn) + hv1 . vn) = hv1 . : : :.. hvn . bn von V . 2 ~ ~ Lemma 1: Sei V V ein Unterraum der Kodimension eins (d. . hih. hid(v2. wni Bemerkung: (3))(2))(1) ist klar. : : :. d. : : :. : : :. Dann ist d=pc normiert. Es gilt ch . . woraus die restlichen Aussagen folgen. : : :.d = 1 in der Formel fur die Gramsche Determinante. vn) = d(v1 + hv1 ..

De nition 7: Fur x. C(a. y2 )) = x1 x2 : y y Volumen von 1 2 x1 x2 x3 IR3 S((x1 . vn) von S(v1 . vn)) = jhv2 .1 Das Vektorprodukt auf einem dreidimensionalen orientierten Euklidischen Raum Sei (V. vn)) und der Hohe auf dieses Seitenspat. : : :. y. : : :. vn)j. : : :. vn). Wenn dim(V tionsannahme. : : :. C(c. vn linear abhangig. (y1. x3). en) = 1 fur die Standardbasis. i) ein dreidimensionaler Euklidischer Raum und sei d 2 D(V ) normiert. Das Volumen eines n-Spates S(v1 . vn )j = jd(v1. y] = x y y x eine Liealgebra. 2 5. vn ). Bemerkung: Meistens schreibt man C als Kommutator C(x. : : :. : : :. : : :. h . vn )j. z1 z2 z3 denn auf dem IRn ist dn (x1. Dann ist die Jacobi-Identitat zu Fakt 3: 80 . Sei V der von den v2 . : : :. y2 . y3). Bemerkung: Die Eindeutigkeit und Existenz von x y folgt durch Anwendung von Satz 2 auf das Funktional z 7! d(x. : : :. De nition 8: Eine Liealgebra ist ein Paar (V. Dann gilt Volumen(S(v1 . : : :. wobei C : V V ! V schiefsymmetrisch und bilinear ist. hijjd(v2 .1. vn)) = 0 = ~ ~ d(v1. vn erzeugte Un~ ) < n 1. vn)) = jd(v1 .6.y] aquivalent. : : :. vn) ist gleich dem Produkt aus dem (n 1)-dimensionalen Volumens eines Seitenspates (etwa S(v2 . vn). y]. da das Volumen(S(v2. y. also gilt Volumen(S(v1. : : :. x2). (z1 . z) () eindeutig de nierte Vektor. Beweis von Folgerung 1 durch Induktion nach n beginnend mit n = 1. C(b. xn) = det(Mat z (x1. y 2 V sei x y 2 V der durch 8 z 2 V : hx y. 2. C). hi die Hohe von S(v1 . (y1 . Fur einen Vektorraum W ist V = L(W. so sind v2. z i = d(x. x2. : : :. so da die Jacobi-Identitat gilt: C(a. a)) = 0: Lx Ly Ly Lx = L x. : : :. : : :. vn )) = ~ jhv1. z2. b)) + C(b. : : :. es folgt durch die Indukterraum. hij Volumen(S(v2. c)) + C(c. Betrachte die (n 1)~ dimensionale Seite S(v2 . vn) bezuglich der Seite S(v2 . Dann ist hv1 . also auch Volumen(S(v1. : : :. denn dn(e1 . Das Volumen des 1-Spates ist die Norm des erzeugenden Vektors. vn)) = 0. xn)) bezuglich n normiert. z). W ) versehen mit x. : : :. z3 )) = y1 y2 y3 . Sei also dim(V ) = n 1 und seien h und d wie in Lemma 1. : : :. Sei V eine Liealgebra und sei Lx (y) der Kommutator von x mit y fur x. d 2 D(V ) normiert : Beispiele: Flache von IR2 S((x1 . y) = x. : : :. y 2 V .

e3)d(c. e1 i hy. Weiterhin gilt fur alle c 2 V * e1 + e2 e3 hc. Beweis: (1). 2. e2 . xi (=) d(x. Gra 1. u(y). 5. e1i hx. z) = hx y. x y = 0 genau dann. e3 i = d(x. u(u 1(z))) = det(u)2 d(x. e2 i hy. x. e1i hx. e3i hx. x. e2 . e1 i hc. bic: 81 (y) (z) . e2 i hy. x1y2 y2 x1) y1 y2 y3 mit x = (xi)3=1 . h . e2i hc. e2i hx. mann) Es gelten die Formeln xi yi hx y. z i: Da das fur alle z gilt. x) = 0. dann gilt e1 e2 e3 x y = hx. e3) eine positiv orientierte Orthonormalbasis. also x y 6= 0. xi ha. e3i hy. y. y. i i i Satz 4: (H. y. z) eine Basis von V und es gilt 0 6= d(x. z. x3y1 x1y3 . so gilt hx y. e3) = 1. e3 i hy. 4. hb. so ist (x. (2). a bi = hha. e3 i (zu berechnen nach der Leibnizschen Formel). cib ha. 2. e1 i hy. 2 3 gilt fur das Standardskalarprodukt und die Standardorientierung Beispiel: Im IR e1 e2 e3 x y = x1 x2 x3 = (x2 y3 x3 y2 . y. (2): 1. yi . e2 . det(u)u(x) u(y)i (=) det(u)d(u(x). y. e3i Gram d(e1. z) = det(u)d(u(x). u 1(z)) (=) hx y. b. Fur (3) bemerkt man hx y. y. c = hx. e1 i hy. e2i hx. c). e2 i hy. y) = hy.B. (3) folgen leicht aus ( ). u 1 (z)i = hu(x y).ist bilinear und schiefsymmetrisch. e3 i . z i. 3. y) ist gerade und d(e1 . z i = d(x. wenn x und y linear abhangig sind. e2i hx. Wenn x und y linear abhangig sind. i). Sei (e1 . denn die Permutation von d(c. folgt (2). Dann gilt u(x y) = det(u)(u(x) u(y)). x y ist zu x und y orthogonal. e1i hx. a (b c) = ha. y = (yi )3=1 und der Standardbasis (ei )3=1 . Also x y = 0. hz. z) = 0 fur alle z wegen der Schiefsymmetrie von d. also wird ( ) erfullt. was (4) beweist. Wenn x und y linear unabhangig sind. u(y). Sei u 2 O(V.

yi2 hx. xi ha. ci = hz. di i=1 hh. i=1 ha. yi yi hei . xi ha. eii = 3 X i=1 d(x. xi hx. y. Dazu benotigen wir folgendes Lemma 2: Sei (e1. bici: bi ci hg. y)). folgt aus (y). ei ihei . denn ha (b c). yi : hb. Dann gilt 3 X Beweis: Die zweite Formel folgt aus der ersten. y))kxkkyk)2 = sin2 (w(x. b ci hz. hg. eii Au osung nach der letzten Zeile hei . gi. hz. yi . di hh. xi hb. x y ist zu den beiden Argumenten orthogonal. cihh. xi hb. z i (=) d(a. ei iha b. e3) eine Orthonormalbasis von V . e3) eine Orthonormalbasis: i=1 hg. Es verbleibt der Beweis von (y). b. Beweis: Da diese Bedingungen das Vektorprodukt eindeutig bestimmen. und sei c. ei ihei . yi hei . 3 kxk2kyk2 (cos(w(x. eii ha. ei) = Lemma 2 i=1 3 X = 2 Folgerung 2: Das Vektorprodukt x y erfullt folgende Eigenschaften. d(x. xi hb. 82 hb. d. xi hb. yi hb. yi ha. 2 Wir konnen nun die linke Seite von (y) berechnen. cihd. e2. x y) ist rechtshandig. yi + 3 ha. eiii = hh. Fakt 3. y hy. xi hb. h 2 V . x yi = hx.h. yi hb. di . Das Dreibein (x. bi ha. e2 . ci ei ci di i=1 3 X denn die linke Seite ist 3 X womit Lemma 2 bewiesen ist. xi hb. hx y. d. eii i=1 hx y. xi ha. ei i + ha. yi hb. yi ha. cihh. Fur seine Lange gilt kx yk = kxkkyk sin(w(x. yi hb. b c) = hz a. y. angewendet mit b = y und a = x: i yi kx yk2 = hx y. z) = d(z. xi ha. 3. die es eindeutig charakterisieren: 1. = ha. yi ha. yi = ha. sei dazu (e1 . 1. y. g. yi hb. xi ha. ei)d(a. xi hb. eii hei . Def. cib ha. ha. b c. xi ha. ci hh. hei . a. di = hg. ei i ha. di hh. ist klar. xi hb. cihg.3 2. xi hei . 2. x y) 0. y))kxk2kyk2 . yi hb. hg.Damit ist (z) bewiesen. xi ha. ei i hb. ci hh. yi = kxk2kyk2 hx. a bi = Gram 3 X = 3 X ha. = damit folgt die Behauptung. hg.

ist nicht bilinear. x) + (~. x. y) + (~. x) = (y.j i. bn) eine Basis von V (also V endlichdimensional). z 2 C : C C ! C. (x + x. y. es gilt (A+B) = A + B . ci + cha. A ist die adjungierte Matrix zu A. y + y ) = ~ = (y + y . (AB) = B A . y 2 V . y ): Also ist antilinear im zweiten Argument. Aus der Leibnizschen Determinantenformel folgt leicht det(A) = det(A). zz = jz j2 = x2 + y2 > 0 fur z = x + iy. y+ z) = (x. y). ( A) = A fur 2 C. z)) und antilinear im zweiten Argument ( (x. De nition 1: Sei V ein komplexer Vektorraum. y)+ (x. : : :. x) ~ y y ~ (x. Folgerung 3: Das Vektorprodukt erfullt die Jacobi-Identitat a (b c) + c (a b) + b (c a) = 0: Es ist nicht assoziativ. ci cha. x) 5. 83 . bi ahb. y) = (x. bj ))n =1 : i. 2 C. Statt der ublichen Symmetrie des Skalarprodukts gilt (x. Beweis: Wende (z) an: a (b c) + c (a b) + b (c a) = bha. y) = (y. y) + ~(x. z + z 0 = z + z 0. Eine hermitesche Form auf V ist eine Abbildung : V V ! C mit folgenden Eigenschaften: 1. y. denn d(x. y). Die Menge der hermiteschen Formen auf V bildet mit den ublichen Regeln fur Addition und Multiplikation einen reellen Vektorraum: ( + ~)(x.3. De nition 2: Sei B = (b1 . ci = 0 2 In diesem Abschnitt arbeiten wir uber den komplexen Zahlen. x. y)+ (y. bi + ahb. z) = (x. z)). x y) = hx y.7 Hermitesche Formen Bemerkung: Dann gilt (x. y) = xy: Dann gilt (z. ~ x ~ 2. Sei fur x. bilinear und schiefsymmetrisch und daher eine Lie-Algebra. x) = (y. y) + (x. y). y) = (y. x) + (~. Wir de nieren Mat B ( ) = ( (bi . (x.j (koe zientenweise konjugiert) de niert. x). z) = zz = jz j2. y) = (x. x yi 0. Erinnere an x + iy = x iy und an z z 0 = z z 0. y) = t (x. folgt leicht aus ( ).j Fakt 1: Fur eine komplexe n n-Matrix A = (hij )n =1 sei A durch A = AT = (aji)n =1 i. (x. Die Theorie der hermiteschen Formen auf komplexen Vektorraumen verlauft analog zur Theorie der symmetrischen Bilinearformen auf reellen Vektorraumen. (t )(x. sondern linear im ersten Argument ( (x + y. also folgt det A = det A. ci bha.

h . n. wn): . 2. x) > 0 84 . . Die Gruppe SU( ) ist als SU( ) = fu 2 U( ) j det(u) = 1g de niert. ibn) beweisen. da a. Dann gibt es eine Basis B = (b1 . Sei (f )(x. Die unitare Gruppe U( ) ist als die Gruppe aller Automorphismen u von V mit (u(x). Wenn V endlichdimensional sein sollte. x) reell. yi und p setzen kxk = hx. a + b = n.. Die Eindeutigkeit von Es gilt c . In diesem Fall schreiben wir auch als Skalarprodukt (x.. also j det(u)j = 1.t 2 IR.B (f) Mat B ( )Mat B0 . Man pruft leicht nach. : : :. i) einen endlichdimensionalen Hilbertraum.d < 0 falls b ungerade (c . Sei d 2 D(V ). b existieren mit 8 1 1 i=j a < (bi . falls die folgenden aquivalenten Bedingungen erfullt sind: 1. xi. : : :.B (f): Bemerkung: Wenn eine hermitesche Form ist.d d(v1 . ist (x. dies ist eine hermitesche Form auf V 0 (wobei eine hermitesche Form auf V ist).. (vn . also ist die Bedingung (x. wn) Beweis: Ziemlich analog zum Beweis des Sylvesterschen Tragheitssatzes. y) = (f(x). Man pruft leicht nach: 2 Mat B0 (f ) = Mat B0 . x) reell. vn )d(w1. w1) : : : (v1 .d = 0 falls entartet sein sollte). y) = 0g = f0g. Es gilt det(u)det(u) = 1. also ist (x. Sei nicht entartet. . so nennen wir (V. u(y)) = (x. (vn .d > 0. bn) von V mit der Eigenschaft. y) = hx.d mit (v1 . y 2 V de niert. falls b gerade und c . ib1 . die reelle symmetrische Bilinearform Re ( ) und die reelle Basis (b1. bn. N( ) = fx 2 V j 8 y 2 V : (x. a und b kann man durch Anwendung von Theorem 3 auf den reellen Vektorraum V . so gilt (x. : : :. da fur jede Basis B von V die Abbildung fhermitesche Formen auf V g ! fselbstadjungierte n n-Matrizeng 7! Mat B ( ) ein Isomorphismus von reellen Vektorraumen ist. x) = (x. x). C) j A = A g einen reellen Vektorraum. Theorem 4: (Analogon des Sylvesterschen Tragheitssatzes) Sei eine Hermitesche Form auf einem endlichdimensionalen komplexen Vektorraum V . f(y)). Dann gibt es eine reelle Konstante c . y) fur alle x. wn) . = c . w1) : : : . : : :. falls (x. Bemerkung: In der Situation des Theorems nennen wir nichtentartet. Ebenso bildet die Menge der selbstadjungierten Matrizen fA 2 Mat (n. De nition 3: Die hermitesche Form auf V ist positiv de nit.. bj ) = : 1 a < i = j a + b 0 sonst. Sei B 0 eine Basis von V 0 . Sei f : V 0 ! V eine lineare Abbildung zwischen komplexen Vektorraumen. Bemerkung 3: Weil hermitesch ist. x) > 0 fur alle x 2 V f0g gilt.

2. wij kvkkwk. Dann gelten 1. Falls hv. wij: ~ v. (yi )i=0 i = i=0 xiyi ist eine positiv de nite hermitesche Form i=0 s Z2 1 Beweis: 1. konnen wir kvk = kwk = 1 annehmen. wi hv. yi = Pn=1 xi yi. Sei w = zw. 85 0 ist. wij Also jhv. wi reell und ~ Dann gilt ( ): 0 hv w. O enbar kann Gleichheit in ( ) nur fur v = w eintreten. wi = hv. Z2 0 f(t)g(t) dt wird eine positiv de nite hermitesche Form auf C de niert. wij. x = (xi )n=1 . v wi = hv. kv + wk kvk + kwk (Dreiecksungleichung). Indem wir v durch v=kvk und w durch w=kwk ersetzen. wi hv. da hv. durfen wir annehmen. Es gilt de niert. Satz 1: (Cauchy-Schwarz) Sei h . jhv. zwi = z hv. Daher kann Gleichheit in der CauchySchwarzschen Ungleichung nur dann eintreten. Gleichheit gilt genau dann. wi=jhv. kf k = 2 jf(t)j2 dt: 0 P Sei l2 die Menge aller Folgen (zi )1 mit zi P1 und 1 jz j2 < 1. wi hw. sei z = hv. hv.jhwihwijwi = jhv. wenn v und w linear abhangig sind. Dann ist l2 ein komplexer 2C i=01 i=1 Vektorraum und durch h(xi )1 . wi = 0. dann gilt kwk = kwk und 6 ~ ~ v.Beispiel 1: Das Standardskalarprodukt auf Cn istndurch hx. vi = 1 + 1 hv. . xi = n=1 xi xi = i=1 jxij2. wi = 2 2jhv. wenn v = 0 oder wenn eine reelle Zahl 0 mit w = v existiert. wenn v und w linear abhangig sind. Es gilt hx. vi + hw. i i Sei C der Raum der 2 -periodischen stetigen Funktionen f : IR ! C. Wir konstruieren analog zur Theorie der Euklidischen Vektorraume die Theorie der positiv deniten Hermiteschen Formen. Durch hf. wi = hv. sonst ist die Ungleichung trivial. i eine positiv de nite Hermitesche Form auf einem komplexen Vektorraum V . Indem wir also w durch w ersetzen. wij 1 fur kvk = kwk = 1 und die erste Behauptung in (1) folgt. Gleichheit gilt genau dann. de niert. gi = 21 sinnvoll. i i P P y = (yi )n=1 . Wie durfen v 6= 0 und w 6= 0 voraussetzen.

n P vi= n i vi = t uX un i=1 Pn j i j2 .6 an. d) ein metrischer Raum. 2 Bemerkung 4: Sei d(x. h . Betrachte V als reellen Vektorraum mit der positiv de niten symmetrischen Bilinearform (x. Es gilt k vk = j jkvk fur 2 C.j =1 i j hvi . Man kann ihn zu einem Raum me barer Funktionen vervollstandigen. viivik . vj i = i. i=1 k i i 86 . : : :. falls dieser metrische Raum vollstandig ist. y) = Re hx. Aus der Cauchy-Schwarzschen Ungleichung fur Cn folgt vn vn v1 v1 u X uX u u n X u u t jxij2t jyij2 uX jxij2uX jyij2: t t jxiyi j i=1 i=1 i=1 i=1 i=1 P1 x y absolut. vn) induktiv wie folgt: w v1 = kw1k . Dann ist (V. : : :.j =1 i j ij P denn h n P v. : : :. i=1 i i i=1 i i i. angewendet auf Cn und C aus Beispiel 1. (V. Die CauchyAlso konvergiert Schwarzsche Ungleichung fur l2 besagt 1 X i=1 i=1 i i Aus der Dreiecksungleichung fur Cn folgt 0 jg(x)j2 dx: xi yi v1 v1 uX uX u t jxij2u jyij2: t i=1 i=1 2 l2 ist ein Hilbertraum. Insbesondere andert die Multiplikation mit einer komplexen Zahl vom Betrag 1 die Norm nicht. y) = kx yk. folgt n X i=1 xi y i Z2 0 f(x)g(x) dx vn vn u X uX u jx j2 u jy j2 t i t i i i=1 sZ 2 sZ=1 2 0 (xi )n=1 . Sei (w1. yi. falls hvi . i) nennt man einen Hilbertraum.2. daher ist das Skalarprodukt auf l wohlde niert. Fakt 2: Dann gilt v n X i=1 2 = n=1 j ij2. P vk = wk kwk 1 Pk 1hw . Wende die Dreiecksungleichung aus 5. De niere (v1 . Damit ist l aus Also folgt i=1 i i 2 i=1 i i=1 i Beispiel 1 tatsachlich ein Vektorraum. i Bemerkung 5: Das Gram-Schmidtsche Orthonormalisierungsverfahren. vj i = ij . De nition 4: In der Situation von Satz 1 nennen wir ein n-Tupel (v1. vn) von Vektoren aus V orthonormal. Der Raum C ist kein Hilbertraum. wn) eine Basis von V . (yi )n=1 2 Cn i i jf(x)j2 dx vn vn vn uX u u u t jxi + yij2 uX jxij2uX jyij2 t t i=1 i=1 i=1 P1 jx + y j2 < 1. falls P1 jx j2 < 1 und P1 jy j2 < 1. v iv i Pk=11hwk. Beispiel: Aus der Cauchy-Schwarzschen Ungleichung.

viij kxk2: 2. yi: n X 2 Beweis: Wie im reellen Fall berechnet man x n X i=1 hx. vn) 2 V n orthonormal. i P wobei yl = n=1 l(ei )ei . viivi kxk2 + kxk2 + kxk2 n X i=1 * X n x. was den zweiten Punkt beweist. Der Beweis erfolgt ahnlich wie im reellen Fall. viihvi . x hx. i. Wenn (v1 . viivi . gi = 2 n 0 P1 hf. In der Situation von Satz 1 sei (v1 . 3. : : :. xi = Beispiel 2: Damit sind der erste Punkt und die erste Halfte des zweiten Punktes bewiesen. en) eine Orthonormalbasis. viivi .Fakt 3: falls v1 . so gilt P hx. viij2 jhx. Es folgt: hx. 1 Z 2 f(t)g(t) dt f (t) = eint. n 2 Z hf. x = n=1 i vi . P x zur lineaMoge P P ren Hulle der vi gehoren. : : :. viihvi . i wenn x in der linearen Hulle der vi liegt. yi = 0g: 87 . vi ihx. vi i = n=1 j hvj . viivi hx. vn) sogar eine Orthonormalbasis von V ist. vk 1 schon berechnet worden sind. 2 i De nition 5: Sei V ein komplexer Vektorraum mit einer positiv de niten Hermiteschen Form h . x + jhx. viij2 : n X i=1 hx. Beweis: Sei (e1. Der Beweis der Eindeutigkeit ist einfach. Der dritte Punkt ist genauso einfach. f if . yl i dargestellt werden. 1. yli. Dies ist genau dann der Fall. : : :. ei il(ei )) = hx. wenn x = n=1 hx. Auf die analytischen Einzelheiten soll hier ist ein orthonormales System. vii = i j j Pn 2 j =1 j ji = i . i=1 hx. Satz 2: Sei V ein endlichdimensionaler Hilbertraum. : : :. Dann kann jedes lineare Funktional l auf V auf eindeutige Weise in der Form l(x) = hx. Fur x 2 V sei X ? = fy 2 V j 8 x 2 X : hx. vii = h n=1 j vj . yi = n X i=1 hx. vii hx. Fur x 2 V gilt die Parsevalsche Ungleichung n X i=1 jhx. vi ivi + + *X n n X i=1 i=1 i=1 n X i=1 n X i=1 hx. f = n= 1 n n nicht eingegangen werden. viivi . Dann gilt l(x) = (Pn=1 hx. viivi 2 = = Fakt 2 = * x n X i=1 hx. Gleichheit tritt genau dann ein.

Sei B = (b1. ei iei 2 X. A = (aij )n =1 . Sei K ein beliebiger Korper. h (v). yi = k X j =1 j (hv. In Satz 2 mu man die Stetigkeit des linearen Funktionales l voraussetzen.8 Symplektische Vektorraume De nition 2: 1. Beweis von Fakt 1: Man pruft leicht nach. also aii = 0. Weil X X ? = V folgt ~ = . x 2 V und y 2 V de nierte lineare Abbildung. falls zu jedem x 2 V f0g ein y 2 V mit s(x. Satz 3 gilt fur abgeschlossene Unterraume X. K) mit A = AT (d. aij = aji 88 .De nition 6: Ein Orthogonalprojektor von V auf einen Untervektorraum X ist eine lineare Abbildung : V ! X mit der Eigenschaft v (v) 2 X ? fur alle v 2 V . ek ) eine Orthonormalbasis von X. Fur x 2 X gilt dann x (x) 2 X \ X ? = f0g. denn ~ (y) 2 X und y ~ (y) 2 X ? . y = Pk=1 j ej . Setze (v) = k=1 hv. Sei sA die durch i. bn) eine Basis von V . ej i fur j k. Sei dazu P (e1 . Bemerkung: Fur x 2 X \ X ? gilt hx. Sei V ein endlichdimensionaler K-Vektorraum. De nition 1: Eine schiefsymmetrische Bilinearform s auf V ist nichtentartet. bj ))n =1. ej i und ist tatsachlich ein Projektor auf X. Sei ein Orthogonalprojektor auf X. Es existiert ein eindeutig bestimmter Orthogonalprojektor von V auf X. ~ (y) yi = 0. Sei s : V ! V die durch ( s (x))(y) = s(x. Also 2 = Beweis: Die Direktheit der Summe X L X ? folgt aus der obigen Bemerkung.h. Fur y 2 X ? gilt k ~(y)k2 = h ~ (y). auch char K = 2. Dann sei Mat B (s) = (s(bi .j Bemerkung: Fur char K 6= 2 folgt aus A = AT aii = aii und 2aii = 0.j =1 i j aij Fakt 1: Durch Mat B wird ein Isomorphismus des Vektorraumes aller schiefsymmetrischen Bilinearformen auf V auf den Raum aller Matrizen A 2 Mat (n. i. Sei umgekehrt A = AT und aii = 0. Eindeutigkeit des Orthogonalprojektors: Sei ~ ein weiterer Orthogonalprojektor auf X. also (x) = x fur x 2 X. Um V = X + X ? zu zeigen. Also gilt fur alle y 2 X. Fur x 2 X gilt ~ (x) = x = (x). Also ~ (y) = 0 = (y). : : :. Dann gilt h (v). also X \ X ? = f0g. n X j =1 j bj ) = n X i. ej i) = 0: ist also tatsachlich ein Orthogonalprojektor. fur A = (aij )n =1 und aii = 0 fur 1 i n) de niert. y) 6= 0 existiert. ~ (y)i = h ~ (y). Dann gilt V = X X ? . j 2 C j hv (v). 5. Satz 3: Sei V ein endlichdimensionaler Hilbertraum und X V ein Untervektorraum. y).j 2. 2 Bemerkung: Diese Satze gelten in ahnlicher Weise fur beliebige Hilbertraume. da Mat B (s) die behaupteten Eigenschaften hat. ej i = i hv. die Existenz eines Orthogonalprojektors auf X zu zeigen.j sA ( n X i=1 i bi . i. n. xi = 0. : : :. genugt es.

x) | 1{zw1) +s(w1 . n X i=1 i bi ) = n X i=1 aji i = n X i=1 ajibi ( n X k=1 k bk ) = ( n X i=1 aji bi )( n X k=1 k bk ): Theorem 5: Sei (V. : : :. w1) = 1. V = Kv1 Kw1 V . eine Basis (v1. wi) = ij . } | {z ) =1 =0 P i bi) = s(bj . wj ) = ij . : : :. vn. v1) = s(x. Sei V = fx 2 V j s(x. Beweis: Sei Mat B (s) = (aij )n =1 und (b1 . und sei f (s) die durch (f (s))(x. Dann gilt s(v1 . Dann gilt Mat B (f (s)) = Mat B. : : :. x)v1.h. Sei die Behauptung fur Vektorraume kleinerer Dimensionen bewiesen. y) = s(v1 . : : :. Dann gilt sA ( n X i=1 i bi . s ist ein Isomorphismus . y) = ~ ~ ~ s(f(x). w1. s(wi . bn) die dazu i. sjV V ist nicht ausgeartet. : : :. vn. w2. Dann gilt ~ 1.B ( s) = Mat B (s). ~ ~ ~ Dann hat nach Induktionsvoraussetzung V eine Darboux-Basis (v2 . Beweis von (1): Sei x 2 V und sei y = x s(v1 . wm ) und (v1. : : :. De nition 3: Ein symplektischer K-Vektorraum ist ein Paar (V. : : :.B (f): ~ ~ ~ Beweis: Wie der Beweis von Fakt 5. wn) mit s(vi . wobei V ein endlichdimensionaler K-Vektorraum und s eine nichtausgeartete schiefsymmetrische Bilinearform auf V ist. Dann gilt s(bj )( n X i=1 1 j<i n aji j i } Also s (bj ) = n=1 ajibi und die Behauptung folgt.j duale Basis. w1) = 0g. s) ein symplektischer Vektorraum uber einem beliebigen Korper K. ~ Fakt 4: Sei f : V ! V eine lineare Abbildung. w1. 2 Fakt 2: Es gilt Mat B. x) s(v1. bn) eine Basis von V und (b1 .1. vj ) = s(vj . Sei v1 2 ~ V f0g. f(y)) de nierte schiefsymmetrische Bilinearform auf V und sei B eine Basis von V .4.2. n X j =1 j bj ) = n X i. wn) ist eine Darboux-Basis fur V . vn. Nach der Voraussetzung existiert ein w1 2 V mit s(v1 . v1 } = 0 s(v . 2. vj ) = 89 . j n und s(vi . Beweis: Wie in 5. 2 i Fakt 3: s ist nicht ausgeartet .B (f)T Mat B (s)Mat B.j =1 aij i j = X 1 i<j n aij i j + n X i |=1 {z =0 aii 2 + i X 1 j<i n = } | P {z aij i j = 0: Man pruft leicht nach. : : :. x) s(v1 .eindeutig de nierte Bilinearform auf V . s). Insbesondere ist dimV gerade. da A 7! sA zu Mat B invers ist. Bemerkung: Dann gilt s(wi. x)w1 + s(w1 . Dann gibt es eine Darboux-Basis von V . Die Matrixdarstellung von s hat die Form 0 1n 1 1n 0 1 Beweis von Theorem 5 durch Induktion nach der Dimension von V beginnend mit dem trivialen Fall V = f0g. wj ) = 0 fur alle 1 i. d. det(Mat B (s)) 6= 0.

h. w2n) . also det(f) 2 f 1g. x1. . v1 + w1 ) = ~ und 0 = s(w1 . fur die 2 Sn und " 2 (Z=2Z)n mit = p" q existieren. n+1g f2. Fur 2 S2n sei d (x1 .. z) 6= 0: =0 ~ Weil y 2 V beweist dies. z) = s(x. Fur char (K) = 2 ist dies schon der ganze Beweis. Daher ist die Summe Kv1 +Kw1 + V direkt. Also = = 0. da die Wirkung von S2n auf M transitiv ist. . : : :. xn) = d (x1 . s). Dann gilt 0 = s(v1 . : : :.und s(w1 . x)w1 s(w1 . w2n). (q permutiert die untere und die obere Schicht entsprechend . da Hn eine Untergruppe in S2n ist und da Hn = f 2 S2n j z0 = z0g. d. w1) : : : s(v1 . Fur char (K) 6= 2 brauchen wir ein scharferes Argument. n + 2g : : : fn. fur die "i = 1 gilt. Sei z0 2 M die Zerlegung f1. x)v1 2 V + Kv1 + Kw1 . fur x. 2ng. Man kann nun zeigen. da sjV V nicht ausgeartet ist.1 i ngj. 2ng in n zweielementige Teilmengen. : : :. Fur 2 Sn sei q 2 S2n die durch q (i) = (i). x) s(w1. : : :. ( )(z) = ( (z)). v1 + w1 ) = . 2 ~ ~ De nition 4: Fur einen symplektischen Vektorraum (V. die ~ Direktheit der Summe zu zeigen. q (n+i) = n+ (i). Sei Hn die Menge aller 2 S2n . Angenommen. Diese Regel de niert eine Wirkung von S2n auf der Menge M.. y) = s(w1 . x) s(v1 . : : :. = cs. 2ng = (x1 ) : : : (xn).. 2ng in f1. x) s(w{z v1) = 0: | {z } | 1. p" vertauscht die untere und die obere Schicht an den Stellen i. w1) : : : s(v2n. Id(z) = z. Man kann leicht zeigen. w1) +s(w1 . Beweisskizze: Sei M die Menge aller Zerlegungen von f1. . y)g: Fakt 5: Elemente der symplektischen Gruppe haben die Determinante 1. z) | 1 } =0 s(w1 } | {z. s) de nieren wir die symplektische Gruppe Sp(V. 2 K und y 2 V darstellen. v1 + w1 2 V . Sei " = ("1 . Daraus folgt schon det(f)2 = 1 fur f 2 Sp(V. ~ Beweis von (2): Sei z 2 V f0g. : : :. Nach Voraussetzung gibt es ein x 2 V mit s(x. x2n 2 V: (y) () d p" q (x1 . x2n) = sign ( ) Man pruft leicht n Y k=1 s(x (k) . . V ) j s(f(x). s(v2n .w1 )= 1 ~ ~ Also gilt y 2 V und daher x = y + s(v1 . z) = s(x. 2ng = x1 : : : xn und 2 S2n sei (z) die Zerlegung f1. q (z0 ) = zo . w2n) ebenso wie die Formel fur die Gramsche Determinante.h. p" (n+i) = i.. s) = ff 2 L(V.. Dann gilt s(y. d 2 D(V ). v2n)d(w1. p" (n+i) = n+i falls "i = 0 und p" (i) = n+i. : : :. d. Beweis: Man zeigt: s(v1 . z) 6= 0. Es verbleibt. Nach ~ Behauptung 1 kann man x als x = v1 + w1 + y mit . : : :.) Es gilt p"(z0 ) = z0 . : : :. f(y)) = s(x. 90 . Es gilt sign(p" q ) = ( 1)jfijei =1. x2n). Fur z : f1. z) s(v{z. "n) 2 (Z=2Z)n und sei p" 2 S2n die durch p" (i) = i.d d(v1. falls "i = 1 fur 1 i n de nierte Permutation. also einen Gruppenhomomorphismus S2n ! S(M). : : :. : : :. 1 i n de nierte Permutation. 2n = dim V. y 2 M existiert 2 S2n mit x = y. s) als Sp(V. } =0 = s(v1. x (n+k)).

x (2n)): (z) Fur z 2 M wahle 2 S2n mit z0 = z. Sei (v1. s). Das Spektrum von A ist die Menge aller 2 K. : : :. Also det(f) = 1. xn)sign ( ): O enbar sind alle dz 2n-Linearformen auf V . wn) wie in Theorem 5. : : :.h. vn. x2n). wn) = 1. : : :. qn . nicht bijektiv) ist. De nition 1: 1. : : :. denn dasselbe gilt fur die dt. x2n) = sign( )d (x (1) . so gilt fur = 1 ~ gilt z0 = z0 . : : :. x (2n)) fur 2 S2n. Wir nennen 2 K einen Eigenwert von A. (~1. 2. :{z:. : : :. vn. Ein Unterraum W V ist A-invariant. x2n). 3. p1. : : :. fur die A IdV : V ! V kein Automorphismus von V (d. Sei X d= dz : Aus (z) folgt leicht d(x1. wn) = 1 z = z0 : 0 sonst Also d(v1. : : :. also d ~ = d (=) d . also 2 Hn. vn. damit d 6= 0. Weiterhin gilt d (x1. w1. folgt daraus d 2 D(V ) (auch fur char (K) = 2 gilt d 2 D(V ) aus anderen Grunden). : : :. Fur 2 K sei V (A) = fv 2 V j Av = vg: Wir nennen V (A) den zu gehorigen Eigenraum von A. : : :. : : :. Aus (z) folgt dz (x (1) . Dann gilt dz (v1 . da solche Transformationen das Phasenvolumen erhalten. qn. qn. : : :. w1. pn). mithin d = d fur 2 Hn. : : :. : : :. pn )g q : } | : } mit Ortskoordinaten Impulskoordinaten z 2M s((q1 . : : :. Aus Fakt 5 folgt. f(x2n)) = d(x1. falls der Eigenraum V (A) 6= f0g. x2n) = sign ( )d(x (1) . :{z:. 2 Bemerkung: In der Hamiltonschen Mechanik betrachtet man V = f( |1. Aber aus der De nition von d folgt d(f(x1 ). x (2n)) = d (z) (x1 . falls A(W) W . x2n) = d (x1. Wenn ~ 2 S2n mit ~ z0 = z. : : :. : : :. A ein Endomorphismus von V . : : :. V ein K-Vektorraum. falls f 2 Sp(V. w1. : : :. pn)) = q ~ ~ ~ n X i=1 (qi pi qi pi): ~ ~ Dann sind die Elemente der symplektischen Gruppe gerade die linearen kanonischen Transformationen. p1. Weil char (K) 6= 2 gilt. In diesem Fall nennen wir die von 0 verschiedenen Elemente von V (A) die Eigenvektoren zum Eigenwert . 4. : : :. p1.denn q vertauscht nur Faktoren in (y) und p" andert nur die Reihenfolge der Argumente in Faktoren von (y). 6 Eigenwerttheorie Sei K ein beliebiger Korper. Setze dz (x1. 91 .

. . 1. 1]) = fstetige Funktionen f : 0. O enbar ist Mat B. Sei A : K n ! K n der Operator der Multiplikation mit der Matrix 0 ::: 0 1 B . ker(A Id) 6= f0g . 2 92 . 1 i n. ist ein Eigenwert von A. . @ . 1 i n. . 2 Bemerkung: Die Menge aller Eigenwerte nennt man auch das Eigenwertspektrum... Daher ist genau dann ein Eigenwert von A. Seine Dimension ist gleich der Anzahl der Indizes i i. Fakt 3: Fur jedes 2 K ist V (A) A-invariant. C @ . 1] ! Cg. Man kann das Problem der Bestimmung der Eigenwerte und Eigenvektoren von A auch au assen als das Problem der Au ndung einer Basis B von V . gehort zum Spektrum von A. fur alle t 2 0. (Af)(t) = tf(t). C . . fur die die Matrixdarstellung von A bezuglich B eine Diagonalmatrix ist (was nicht immer gelingt). da ein Endomorphismus eines endlichdimensionalen Vektorraumes genau dann bijektiv ist. Also gilt: ist Eigenwert . Dann sind folgende Aussagen aquivalent: 1. liegt im Spektrum von A.. (3) folgt aus der Determinantentheorie. ist. A IdV ist nicht injektiv ) A IdV ist nicht bijektiv . Als unendlichdimensionales Beispiel betrachten wir C( 0. . wenn = i . 1] ubereinstimmt: eine Funktion g mit f g( ) 6= 0 kann nicht zum Bild von A Id gehoren.. fur alle t 2 0. 3. (2) ) (1) folgt wegen der Endlichdimensionalitat von V aus der Tatsache. Beweis: Aus x 2 V (A) folgt Ax = x 2 V (A). A 0 ::: n Beispiele: deren Determinante ( 1 ) : : : ( n ) ist. 2 Fakt 2: Sei V endlichdimensional. 1] ist f 7! g(t) = t (t) ein Inverses zu A Id. wenn er injektiv ist.Fakt 1: Eigenwerte gehoren zum Spektrum. 1] f g gilt f(t) = 0 Stetigkeit f = 0. det(A Id) = 0. falls B aus Eigenvektoren besteht. In diesem Fall ist der Eigenraum (K n ) (A) = f(xi )n=1 2 K n j xi = 0 falls i 6= g. aber fur 62 0.1 . da das Spektrum von A mit 0. . fur die i = gilt. . (2) . Andererseits . A 0 ::: n Dann ist A Id der Operator der Multiplikation mit der Matrix 1 0 ::: 0 1 B . 2. 1] gilt (t )f(t) = 0 . pruft man leicht. 2. Beweis: (1) ) (2) ist Fakt 1.B (A) genau dann eine Diagonalmatrix. Dann gilt: Af = f . . Also hat A keine Eigenwerte. Beweis: Es gilt: V (A) = ker(A Id ).

xi = hAx. ebenso sind es AA . A yi fur alle x 2 H. yi = hx. (AB) = B A . Die normalen Endomorphismen bilden keinen Unterraum im Raum aller Endomorphismen von H. d. Beweis: Sei 2 C ein Eigenwert. z. B A yi fur alle x. d. yi = hBx. B yi fur alle x. yi = hx. yi = hy. was fur i = j impliziert. Wenn A und B selbstadjungiert sind. sonst x 7! x=kxk. Also ist A genau dann selbstadjungiert. denn fur alle A gilt A = A: hA x. 3. 4. und die Abbildung y 7! A y ist linear. A = A. Fur i. 2 Fakt 3: Sei A selbstadjungiert. y 2 H#(A).B. normal. (A + B) = A + B . yi = hA(B(x)).h. falls aij = aji fur i. y 2 H. xi = hx.B (A) : Insbesondere ist A genau dann selbstadjungiert bzw. 2. xi = hx. Beweis: Einfaches Nachrechnen. xi = . falls AA = A A gilt. y 2 H. Seien 6= # reell. 2.B (A) ist.j alle i. und die Eigenraume zu verschiedenen Eigenwerten sind zueinander orthogonal. yi = 93 . aber die Multiplikation eines normalen Endomorphismus mit einer komplexen Zahl ist normal.Sei H ein endlichdimensionaler Hilbertraum. Weiterhin gilt h(AB)(x).. falls A = A ist. Nach Satz 5. Ayi. A+A und i(A A ). 3. und A ein Endomorphismus von H.1 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines endlichdimensionalen Hilbertraums Folgerungen: 1. da aij reell ist. Die selbstadjungierten Operatoren bilden einen reellen Unterraum im Raum aller Endomorphismen von H. Beweis: (1) und (2) sind einfach. A xi = hAy. falls A und A kommutieren. B yi = hx. Dann gilt: = h x.. xi = hx. Axi = hx. wobei (aij )n =1 = (aij )n =1 . A y ist durch diese Eigenschaft eindeutig bestimmt. Bemerkung: In Fakt 5. Dann gilt hx. Die Summe zweier kommutierender normaler Endomorphismen ist normal.2 gibt es also einen Vektor A y 2 H mit der Eigenschaft hAx. also folgt (3). (4) wird weiter unten bewiesen. Fakt 2: Sei B eine Orthonormalbasis von H. yi ein lineares Funktional auf H. also ist AB genau dann selbstadjungiert. wenn es Mat B. Es gilt: (A A) = A A = A A. wenn A und B kommutieren. Fur alle y 2 H ist die Abbildung H 3 x 7! hAx. Fakt 1: Es gelten folgende Regeln: 1.B (A ) = Mat B. ( B) = B fur 2 C. Also ist reell. Wir nennen A selbstadjungiert. 2 6.j i. Wir nennen A normal. Dann gibt es ein x 2 H f0g mit Ax = x.j A = (aij )n =1 gilt A = (aji )n =1. Dann gilt: Mat B.j i. h Bx. so gilt (AB) = B A = BA. wenn AB = BA gilt. Wir konnen kxk = 1 annehmen. De nition 1: Wir nennen A den zu A adjungierten Endomorphismus. Dann sind alle Eigenwerte von A reell. Also ist A A selbstadjungiert.1 hatten wir A = AT de niert.h. A yi = hx. yi = hBx.7. j gilt.7. also ( B) = B .. x 2 H (A).

Sei H 0 das orthogonale Komplement von Cx in H und sei y0 die orthogonale Projektion von Ax auf H 0. bn) von H. xi j x 2 H ^ kxk = 1g: Dann sind + und Eigenwerte. und die Induktionsannahme impliziert die Existenz einer Orthonormalbasis (bk+1. Motivation fur die nachfolgende Konstruktion von Eigenwerten: Angenommen. Beweis: Sei A selbstadjungiert. x x so da hAx. die Aussage uber zeigt man genauso. Widerspruch.hAx. Also ist hAx. x(t)i an der Stelle t = 0 ihr globales Maximum an. die Aussage uber + zu beweisen. eine Orthonormalbasis von H zu konstruieren. existiert das Maximum auf dieser Menge. die aus Eigenvektoren besteht. und jedes x mit kxk = 1. y0 i > 0. P 1 ::: n . Die (etwas schwierigere) Ruckrichtung ist Ubungsaufgabe. ist ein Eigenvektor. weil x kein Eigenvektor ist. Wenn jedes selbstadjungierte A Eigenwerte hat. xi j kxk = 1g ein Eigenwert ist (naturlich ohne die Existenz einer Orthonormalbasis aus Eigenvektoren vorauszusetzen). die aus Eigenvektoren von A besteht. und seien + = maxfhAx. insbesondere ist t = 0 auch ein lokales Maximum fur diese Funktion. da maxfhAx. Angenommen. da es Vektoren x 2 K mit kxk = 1 und hAx. Man zeigt dann leicht. Ayi = hx. sei (b1 . 6 Also hat f an der Stelle t = 0 kein lokales Extremum. yi. Also kann f(0) nicht das Maximum aller f(t) sein. xi = h n X i=1 i xibi . 2 Es liegt daher nahe. gilt also y0 6= 0. erhalten wir ein zu+ty orthogonales normiertes y. bn) von H 0 . namlich von allen x. an dem diese Extrema angenommen werden. xi. 2 Bemerkungen: 94 . kann man das wie folgt tun: sei ein Eigenwert. bn) das Gewunschte. Solche Vektoren sind Eigenvektoren zu 1 . Es liegt also nahe. zu zeigen. n X j =1 xj bj i = n X i=1 i jxij2 = 1 n X i=1 jx i j2 n X i=1 ( 1 i )jxij2 1. Satz 1: Sei A selbstadjungiert. fur die xi = 0 fur alle i mit i < 1 gilt. Indem wir y = y0 =ky0 k setzen. Die Ableitung an der Stelle 0 ist gerade f 0 (0) = hAx. : : :. #yi = #hx. x ware kein Eigenvektor. zu versuchen. Sei = + . Axi = hAx. zu zeigen. : : :. Ayi). wenn fur alle x 2 H hAx. A xi = hx. xi = hx. yi = hx. da AjH 0 ein selbstadjungierter Endomorphismus von H 0 ist. Es gilt 1 f(t) = 1+t2 (hAx. y0 i = hy0 . wobei 1. Es gilt hAx. Dann gilt Ax y0 2 Cx. bk) eine Orthonormalbasis des entsprechenden Eigenraumes H (A) und sei H 0 das orthogonale Komplement dieses Eigenraumes. es existiert eine Orthonormalbasis (bP:n: :. xi reell ist. xi auf der kompakten Menge fx 2 H j kxk = 1g stetig ist und reelle Werte annimmt. xi j x 2 H ^ kxk = 1g und = minfhAx. xi = gibt. Ayi = 2hAx. yi = 0. und die Schranke 1 wird tatsachlich angenommen. da jedes x mit dieser Eigenschaft ein Eigenvektor zu ist. Dann leistet (b1 . xi reell. yi reell und von Null verschieden ist. Dann gilt kx(t)k = 1 fur alle t 2 IR. yi + hx. Fur x = i=1 xibi mit kxk2 = i=1 jxi j2 = 1 gilt hAx. Wir wissen. Lemma 1: Ein Endomorphismus eines endlichdimensionalen Hilbertraumes H ist genau dann selbstadjungiert. yi + thx. Also nimmt die Funktion f(t) = hAx(t). Da die Funktion hAx. Wenn x ein Eigenvektor ist. so da n (bi ) Eigenvektor zum Eigenwert ist. da 6= # folgt hx. so ist der dazugehorige Eigenwert. : : :. also ist f in Abhangigkeit von t stetig di erenzierbar. Dann gilt hAx. Beweis: Es genugt. yi = 0. Sei x(t) = p1+t2 . Es genugt. xi + t2 hAy. yi + thAx.

Dann gibt es eine Orthonormalbasis von H. Sei die Behauptung fur Hilbertraume kleinerer Dimension als H bewiesen.3 gilt H = H + (A) H + (A)? = H + (A) H 0 = H + (A) M 2IR. Weil eine Hermitesche Form ist. Sei H 6= f0g. Wende die Bemerkung nach Theorem 1 auf A an. Sei H 0 = H + (A)? . 2. Folgerung 1: Sei eine Hermitesche Form auf H. = 6 + H (A) = M 2IR H (A): 2 Bemerkung: Insbesondere hat H eine Orthonormalbasis. genau dim(H) Eigenwerte gibt. Man kann dim(H (A)) als die Vielfachheit des Eigenwertes betrachten. Sei nun y 2 X ? . Nach Fakt 6. xi = hy. also ist es nach Lemma 2 auch H 0. Wir haben damit gezeigt.1. 2 95 .7. Also ist Ay 2 X 2 Theorem 1: Fur jeden selbstadjungierten Endomorphismus A eines endlichdimensionalen Hilbertraumes H gilt die orthogonale direkte Summenzerlegung in die Eigenraume von A A= M 2IR H (A): Beweis: Induktion nach dim(H) beginnend mit dem trivialen Fall dim(H) = 0. Also ist AjH 0 ein selbstadjungierter Endomorphismus von H 0 . denn Ax 2 X. xi = . ist A linear und selbstadjungiert. Dann gilt fur alle x 2 X hAy. Es gilt X ? = fy 2 H j 8 x 2 X : hy. Es gilt: f0 H 0 (AjH 0 ) = H (A) \ H 0 = H g(A) fur = + . Beweis: Sei X H A-invariant.7. xi = 0g. 6= + H (A): M 2IR. Lemma 2: Sei A selbstadjungiert. Dann ist das orthogonale Komplement A eines A-invarianten Unterraumes A-invariant. P Es gilt dim(H) = 2IR dim(H (A)).3 aus der Einleitung ist H (A) A-invariant. Laut Bemerkung 1 folgt aus Satz 1. Ayi = (x. falls x ein normierter Eigenvektor zu dem Eigenwert ist. da jeder selbstadjungierte Endomorphismus eines von 0 verschiedenen Hilbertraumes H einen Eigenwert hat (falls H 6= f0g). Hauptachsentransformation). auf den die Induktionsannahme angewendet werden kann. gezahlt nach Vielfachheit. Beweis: Nach Satz 5. fur 6= + Die Induktionsannahme zeigt also H0 = Nach Satz 5. da A einen Eigenwert hat. ?. da es. y). Axi = 0. welche aus Eigenvektoren zu A besteht (Wahle eine Orthonormalbasis fur jedes H (A)). O enbar gilt hAx. Wir haben dann bewiesen.2 gibt es fur alle y 2 H genau ein Ay 2 H mit hx. in der die Matrixdarstellung von eine Diagonalmatrix ist (Hauptachsenbasis.

An paarweise kommutierende Endomorphismen eines beliebigen Vektorraumes V .:::.:::.:::.:::. : : :. impliziert die Existenz einer solchen Basis Mat B (Ai Aj ) = Mat B (Ai )Mat B (Aj ) = Mat B (Aj )Mat B (Ai ) = Mat B (Aj Ai ).:::. Der Fall n = 1 ist gerade Theorem 1. An paarweise kommutierende selbstadjungierte Endomorphismen von H. : : :. Sei die Aussage fur n 1 Operatoren bewiesen. : : :. An): Beweis durch Induktion nach n. ist diese Bedingung auch hinreichend. : : :. n)2I n R H 1. : : :. Beweis: Sei v 2 V i (Ai ). K = C. n (Ai . : : :. Bemerkung: V 1 . fur die Mat B (Ai ) eine Diagonalmatrix ist. An 1) \ H (An )) = Also H = 2IR M 2IR ( 1 . n (A1 . Dann gilt die orthogonale direkte Summenzerlegung H= M ( 1 . : : :. An kommutieren also paarweise. : : :. also T ist V 1 . Theorem 1 ergibt folglich M 0 M M H0 = H (An jH 0 ) = (H 0 \ H (An )) = (H 1 . : : :. Lemma 3: Wenn B mit A1. n 1 (A1 .Verallgemeinerung: Sei V ein beliebiger endlichdimensionaler Vektorraum uber einem beliebigen Korper K und seien A1 . Dann gilt Ai Bv = BAi v = B( i v) = i Bv. die A1 . Theorem 2: Seien A1 .:::. n 1 )2I n 1 R H 1. An 1) An -invariant. De nition 2: Seien A1. deren Elemente fur alle Ai Eigenvektoren sind. : : :. : : :. so ist V 1. : : :.:::.:::. also AiAj = Aj Ai. An) B-invariant. Die Einschrankung von An auf den An -invarianten Unterraum H 0 ist ein selbstadjungierter Endomorphismus von H 0 . n ).:::. Gibt es eine Basis B von V . n (A1 . Also ist V i (Ai ) B-invariant. n 1 (A1 . also Bv 2 V i (Ai). n 1 (A1. Sei nun H ein endlichdimensionaler Hilbertraum. Ai und Aj kommutieren. An): H 1 . : : :. Dann sei V 1 . 2 Die De nition und das Lemma beziehen sich auf beliebige Vektorraume uber beliebigen Korpern.:::. Wenn die Ai selbstadjungierte Endomorphismen eines endlichdimensionalen Hilbertraumes sind.:::. Mit anderen Worten. : : :.:::.h. Dann gilt M H 1. (A1 . n 2 K der gemeinsame Eigenraum von (A1 . n 1. : : :. n (A1 . An) zu ( 1 . : : :. d. An) = i=1 V i (Ai ) B-invariant. : : :. An kommutiert.nDer Durchschnitt B-invarianter Unterraume ist B-invariant. Weil die Multiplikation von Diagonalmatrizen kommutativ ist. n (A1.:::. 2IR 2IR M ( 1. An 1): H= Nach Lemma 3 ist H 0 = H 1. 1 i ng 1 . : : :. An) = n \ i=1 V i (Ai ) = fv 2 V j Ai (v) = i v. n 1 )2I n 1 R n 1 (A1 . An) kann man auch fur nicht paarweise kommutierende Ai in dieser Form de nieren (allerdings wenig sinnvoll). An 1) 96 . An Endomorphismen von V .

. A2): () 1+i 2 (A). Nach Theorem 2 gilt 2 H= Behauptung: H 1. U ist unitar. n )2I n R H 1 . A2) H 1+i 2 (A). U ist unitar genau dann. (A1 jH 0 . wenn hUx. 2 K = C. so gilt fur 6= # V (A) \ V# (A) = f0g. 2 (A1 . 2) gilt . 2 Fur einen normalen Operator A kommutieren also die beiden selbstadjungierten Endomorphis1 men von H A1 = 1 (A + A ) und A2 = 2i (A A ). Weil A1 und A2 mit A kommutieren.:::. A2) H 0 \ H +i (A) = H 1+i 2 (A) \ H +i (A) = f0g. 2)2I 2 R H 1. An)) = M ( 1 . A2 jH 0 ) = H 0 \ H . 2Wir wollen Folgerung 2 auf unitare Endomorphismen von H anwenden. (A1 . wenn x zu dem Durchschnitt gehort. In der Tat. Dann gilt die orthogonale direkte Summenzerlegung M H = H (A): benotigen wir Fakt: Wenn A und B kommutieren. 2 (A1 .:::. n (A1 . Dann gilt Av = A + A v + i A 2iA v = 1 v + i 2 v = ( 1 + i 2 )v: 2 Damit H 1 .= M 2 Folgerung 2: Sie A ein normaler Endomorphismus von H. Sei H 0 = H 1+i 2 (A). An): Beweis: A ist genau dann normal. : : :. denn es gilt folgender Fakt: Wenn A ein beliebiger Endomorphismus eines beliebigen K-Vektorraumes V ist. ist H 0 invariant unter A1 und A2 (Lemma 3). also x = 0. : : :. so kommutieren auch A+ B und A+ B fur . 97 . wenn A und A miteinander kommutieren. so gilt x = Ax = #x. A2). also M H0 = H .:::. 2 (A1 . so ergibt ( ) H= M = 1 +i 2 2C H (A): Beweis der Behauptung: Sei v 2 H 1 . A2) = H R ( 1. A2jH 0 ): Aber fur ( . n 1 )2I n 1 n 2I R ( M H 1.:::. y 2 H gilt. also ( )x = 0. Wenn diese Behauptung bewiesen ist. ) 6= ( 1 . Fakt 4: Fur einen Endomorphismus U eines endlichdimensionalen Hilbertraumes H sind folgende Aussagen aquivalent: 1. yi fur alle x. 2 (A1 . Uyi = hx. 2 Damit ist Folgerung 2 bewiesen. Wir mussen zeigen. Zum Beweis 2C M ( 1 . da Gleichheit eintritt. . n (A1 . 2I 2 R H 0 . (A1jH 0 .

wenn p2 = p und p = p gilt. Beweis: (1) ) (2) ist klar. (3) und (4) ist jeder unitare Endomorphismus normal.:::. da sie invertierbar sind. b 2 X. yi = Re hx. y 2 H : hx. b + ~i ~2= ha. n ) mit j ij = 1. Wir konnen also Folgerung 2 auf den unitaren Endomorphismus U anwenden. Uyi: (1) .. 8 x.:::. Wir erhalten Folgerung 3: Fur unitares U gilt die direkte orthogonale Summenzerlegung H= M 2C. Dann gilt 2Re hx. 8 y 2 H : U Uy = y . d.j j=1 H (U): 2 Folgerung 4: Seien A1 . Dann gilt die orthogonale direkte Summenzerlegung H= M ( 1 . y 2 H : hx. 8 x. v 2 H (U) f0g. Beweis: Sei p der Orthogonalprojektor auf den Unterraum X H. so verschwinden die Summanden zu ( 1 . kUxk = kxk fur alle x 2 H.2. (3): (1) . yi = hUx. (3): (3) . Uyi: Es folgt hx. U Uyi . yi + iRe hx. An paarweise kommutierende normale Endomorphismen von H. Uyi + iRe hUx.h. Sei H (U) 6= f0g. iyi = Re hUx. ist U genau dann ein Rechtsinverses zu U. U U = Id. yi = kx + yk2 kxk2 kyk2 = kUx + Uyk2 kUxk2 kUyk2 = 2Re hUx. also j j = 1. An): Wenn dabei Ai unitar ist. yi = hx. : : :. n)2Cn H 1. 4. 2 Wegen der Aquivalenz von (1). bi = ha + a. ~ 2 X ? gilt ~b hp(a + a). p(b + ~)i ~ b a)=0 b bX ~ b und p2(a + a) = p(p(a + a)) = p(a) = a: ~ ~ 98 ? . : : :. (4): Weil H endlichdimensional ist. Warnung: Fur unendlichdimensionale Hilbertraume sind (3) und (4) nicht aquivalent. wenn es ein Linksinverses zu U ist. Dann gilt kvk = kUvk = k vk = j jkvk. Uyi . a. n (A1. Es gilt H = X X ?. Man verlangt dann von unitaren Operatoren explizit. b + ~i p(~= ha. wenn p ein selbstadjungiertes Idempotent ist. 6 Beweis: Dies folgt aus Lemma 3 und Folgerung 2 in derselben Weise wie Theorem 2 aus Theorem 1 und Lemma 3 folgt. (2) ) (1): Sei kUxk = kxk fur alle x 2 H. UU = Id. Fur a. Insbesondere ist jeder unitare Endomorphismus normal. 3. iUyi = hUx. Fakt 5: Sei p ein Endomorphismus eines endlichdimensionalen Hilbertraumes H. : : :. Dann ist p genau dann ein Orthogonalprojektor auf einem Unterraum von H.

Sei umgekehrt p2 = p und p = p . en). Cn frei zu wahlen sind. ( A) = A . yi = 0. Fakt 4: Dann sind die Eigenraume von A zu verschiedenen Eigenwerten zueinander orthogonal. also hx. Also gilt p(x) = p(p(z)) = p(z) = x. yi = hAx. wenn die beiden Faktoren kommutieren.1. : : :. wenn AA = A A gilt. da p = p und p2 = p gelten. Beweis: Analog zum Beweis derselben Folgerungen im vorherigen Kapitel. d. Beweis: Analog zu Fakt 6.. Also ( #)hx. Sei X = Bild(p) und Y = ker(p). z i = 0 . p(z)i = 0 . Fur y 2 X ? = Y = ker(p) gilt p(y) = 0. A = A. Eigentlich wird die Spektraltheorie erst im unendlichdimensionalen Fall richtig interessant. Beweis: Analog zum Beweis im vorherigen Kapitel. Also ist p Orthogonalprojektor auf X. Ayi = hx. yi = hx. 2 Bemerkung 2: 1. xi = 0 . (AB) = B A . 8 z 2 H : hy. yi = h x. A ist normal. : : :. De nition 1: Fur einen Endomorphismus A : V ! V sei A der durch die Gleichung hAx. h . #yi = #hx. 8 x 2 X : hy. K = IR. AA und A A selbstadjungiert. 6. falls A = A gilt.5. yi. yi = hx. 2. A yi eindeutig bestimmte Endomorphismus von V . 8 z 2 H : hp(y).. yi = 0. y 2 H als x = a + a und y = b + ~ mit a. Sei V ein endlichdimensionaler IR. insbesondere ist A genau dann selbstadjungiert.2 Eigenwerttheorie fur normale und selbstadjungierte Endomorphismen eines Euklidischen Vektorraumes Sei V ein Euklidischer Vektorraum. A ist selbstadjungiert. denn y 2 X ? .Weil alle x.1. Dann gilt Mat B (A ) = Mat B (A)T . Das Produkt zweier selbstadjungierter Endomorphismen ist genau dann selbstadjungiert. Fakt 3: Sei B eine Orthonormalbasis von V . die aus Eigenvektoren fur A besteht. dann gilt x = p(z) fur ein z 2 H. ~ 2 X ? dargestellt werden ~ b ~b konnen. Sei x 2 X. zeigt dies.. i das Skalarprodukt auf V . falls A und A kommutieren.1. Fakt 1: p ist genau dann Orthogonalprojektor auf einem Unterraum U V . Beweis: Wie Fakt 6. Beweis: Analog zu Fakt 6. b 2 X und a. Es gilt also H = X +Y = X +X ? .1.oder C-Vektorraum und sei A 2 End(V ). wobei C1 . wenn p = p und p2 = p gilt. dann hx. V hat eine Basis (e1 . Sei von nun an A selbstadjungiert. p(y) = 0. Wir betrachten die V -wertige Di erentialgleichung dv = Av.3: Sei x 2 V (A) = fx 2 V j Ax = xg und y 2 V# (A) fur 6= #. Fur jeden Endomorphismus A sind A + A . Aei = Pn i ei . Fakt 2: (A + B) = A + B . v : IR ! V: () dt Angenommen. wenn Mat B (A) symmetrisch entlang der Hauptdiagonale ist. 99 . Dann ist die allgemeine Losung von ( ) durch v(t) = i=1 Cie i t ei gegeben. Folgerung: Die selbstadjungierten Endomorphismen von V bilden also einen Unterraum im Raum aller Endomorphismen von V . Dann X ? = Y .h.

2 Wir mochten zeigen, da eine Orthonormalbasis von V existiert, die aus Eigenvektoren von A besteht. Wir gehen wie im komplexen Fall vor. Satz 1: Sei S = fx 2 V j kxk = 1g. Die Funktion x 7! hAx; xi ist auf der kompakten Menge S stetig und nimmt daher auf S ein Maximum und ein Minimum an. Diese Extremwerte sind Eigenwerte von A, die Argumente, an denen sie angenommen werden, sind Eigenvektoren von A. Beweis: Wie Satz 6.1.1. Bemerkung 1: O enbar sind auch alle normierten Eigenvektoren von A zu den Eigenwerten = minfhAx; xi j x 2 V ^ kxk = 1g Extrema der in + = maxfhAx; xi j x 2 V ^ kxk = 1g, Satz 1 betrachteten Funktion. Lemma 1: Sei A selbstadjungiert. Dann ist das orthogonale Komplement eines A-invarianten Unterraumes A-invariant. Beweis: Wie Lemma 6.1.2. Theorem 3: Sei A ein selbstadjungierter Endomorphismus eines Euklidischen Vektorraumes V . Dann gilt die orthogonale Summenzerlegung
V=

M

2IR

V (A):

Insbesondere hat V eine Orthonormalbasis, die aus Eigenvektoren von A besteht. Beweis: Wie Theorem 1 im letzten Kapitel. Folgerung 1: (Hauptachsentransformation fur symmetrische Bilinearformen) Sei eine symmetrische Bilinearform auf einem Euklidischen Vektorraum V . Dann hat V eine Orthonormalbasis B, so da Mat B ( ) eine Diagonalmatrix ist. Beweis: Es gibt einen selbstadjungierten Endomorphismus A von V mit (x; y) = hAx; yi, das folgt aus Satz 5.6.2. Anwendung von Theorem 3 auf A ergibt den Beweis. 2 Bemerkung: Sei (x; y) eine symmetrische Bilinearform auf IR2, die in der Standardbasis Diagonalgestalt hat. Dann ((x1 ; x2); (y1 ; y2)) = ax1y1 + bx2y2 . Wir nehmen weiterhin an, da positiv de nit ist, also a; b > 0, und a < b. Dann ist E = fx 2 IR2 j (x; x) = 1g eine Ellipse mit der x-Achse als Hauptachse und der y-Achse als Nebenachse. Fur positiv de nites auf V ist fx 2 V j (x; x) = 1g ein Ellipsoid, eine Basis mit der in Folgerung 1 beschriebenen Eigenschaft liefert die Haupt- und Nebenachsen fur dieses Ellipsoid. Falls dim(V ) = 2 und nicht ausgeartet, aber inde nit ist, so ist fx 2 V j (x; x) = 1g eine Hyperbel. Theorem 4: Seien A1 ; : : :; An paarweise kommutierende selbstadjungierte Endomorphismen eines Euklidischen Vektorraumes V . Dann gilt die orthogonale Summenzerlegung V=

M

( 1 ;:::; n )2I n R

V 1 ;:::; n (A1 ; : : :; An):

Insbesondere hat V eine Orthonormalbasis, in der alle Ai Diagonalgestalt haben. Beweis: Dies leitet man mit Hilfe von Lemma 6.2.1 aus Theorem 3 in derselben Weise her, wie Theorem 2 aus Theorem 1.

100

wir

De nition 2: Sei A ein normaler Endomorphismus von V . Fur r > 0 und 0 < ' < setzen Vr;' (A) = fx 2 V j AA x = r2x ^ (A + A )x = 2r cos ' xg: Theorem 5: Sei A ein normaler Endomorphismus eines Euklidischen Vektorraumes V .
1. Es gilt die orthogonale direkte Summenzerlegung V=

M

2IR

V (A)

M

r>0;0<'<

Vr;' (A):

2. Fur r > 0 und 0 < ' < hat Vr;' (A) eine Orthonormalbasis B = (e1 ; : : :; ek ; f1; : : :; fk ) mit Aei = r cos 'ei + r sin 'fi , Afi = r cos 'fi r sin 'ei fur 1 i k. Mit anderen Worten, '1 sin '1 Mat B (AjVr;' ) = r cos '11k rrcos '11k : r sin 1 1
k k

Insbesondere ist die Dimension von Vr;' (A) gerade. A ) angewendet. Eine analoge Anwendung von Theorem 4 ist hier nicht moglich, denn der zweite dieser Ausdrucke macht keinen Sinn mehr. Statt dessen wenden wir Theorem 4 auf die kommutierenden selbstadjungierten Endomorphismen A + A und AA an. Wir erhalten V=

Beweis: Beim Beweis von Folgerung 6.1.2 hatten wir Theorem 2 auf 1 (A + A ) und 21i (A 2

M

(r;s)2I 2 R

Vr;s (AA ; A + A )

(orthogonal) :

()

Lemma 2:

3. Sei jsj < 2 t, also s = 2 t cos ' fur ein eindeutig bestimmtes 0 < ' < . Dann gilt Vt;s (AA ; A + A ) = Vpt;' (A). O enbar beweist das Lemma den ersten Punkt des Theorems, denn es identi ziert ( ) mit der zu beweisenden Orthogonalzerlegung. Beweis von Lemma 2: Wir benutzen eine Halfte von Lemma 3: Ein Endomorphismus eines Euklidischen Vektorraumes V ist genau dann normal, wenn fur alle x 2 V gilt kAxk = kA xk. Bemerkung: Dies gilt auch fur endlichdimensionale Hilbertraume. p p p Beweis von Lemma 3: Sei A normal. Dann ist kAxk = hAx; Axi = hA Ax; xi = hA x; A xi = kA xk. Die andere Richtung ist Ubungsaufgabe. 2 Beweis von Lemma 2: Zu (1): Sei x 2 Vt;s(AA ; A + A ) f0g. Wir setzen o.B.d.A. kxk = 1 voraus. Es gilt: kA xk2 = hA x; A xi = hx; AA xi = hx; txi = thx; xi = t. Also gilt t 0 und p kA xk = t. Nach Lemma 3 gilt kAxk = kA xk. Es gilt jsj = k(A + A )xk kAxk + kA xk = p 2 t. Damit ist (1) bewiesen. Gleichheit tritt in der letzten Zeile nur dann ein, wenn Gleichheit in der Dreiecksungleichung eintritt, also wenn einer der Vektoren Ax und A x ein nicht negatives 101

1. Wenn Vt;s(AA ; A + A ) 6= f0g gilt, so gilt 0 ( s )2 t. Mit anderen Worten, t 0 und 2 p jsj 2 t. s s 2. V( 2 )2 ;s(AA ; A + A ) = V 2 (A).

p

p

Vielfaches des anderen ist. Wegen kAxk = kA xk ist das der Fall genau dann, wenn Ax = A x. s Dann gilt 2Ax = (A + A )x = sx, und x 2 V 2 (A), womit " " in (2) bewiesen ist. (3) lauft auf eine einfache Anwendung von De nition 2 hinaus: Vr;' (A) = fx 2 V j AA x = r2 x; (A +A )x = 2r cos 'xg = Vr2 ;2r cos ' (AA ; A + A ). " " von (2): Es gilt nach (1), (3) und ( ) V=

M

s2I R

s V( 2 )2 ;s(AA ; A + A )

M
r>0

Vr;' (A):

0<'<

Weil A und A kommutieren, ist diese Zerlegung A-invariant. Daraus folgt fur 2 IR leicht: V (A) =

M

s2I R

s V (A) \ V( 2 )2 ;s(AA ; A + A )

fur s=2 M V = V 2 ;2 (AA ; A + A ) | (A) \ Vr;' (A) {z } = V 2 ;2 (AA ; A + A ) Es verbleibt der Beweis der versprochenen Behauptung V (A) \ Vr;' (A) = 0 fur 0 < ' < und r > 0. Andernfalls sei x ein von 0 verschiedener Vektor dieses Durchschnitts, wobei wir p p kx = phkAA 1x;voraussetzen durfen. Dann jgilt= r.= k gilt = =Axk = i =hAx; A xi= hAAx;Ax;. xi = pr2hx; xi = r. Also j j j Es xk k hAx; x hx; Axi = h xi Also xi = gilt 2 = h(A + A )x; xi = 2r cos '. Dies kann fur 0 < ' < und r = j j = 0 nicht der Fall 6 sein. Dieser Widerspruch beweist die versprochene Behauptung V (A) \ Vr;' (A) = f0g und der 2 Beweis von (2) ist vollstandig. Beweis von Theorem 5.2: Der Beweis erfolgt durch eine Kette von Lemmata. Lemma 4: Fur einen Endomorphismus U eines Euklidischen Vektorraumes V sind folgende Aussagen aquivalent: 1. U ist orthogonal; 2. kUxk = kxk fur alle x 2 V ; 3. UU = IdV ; 4. U U = IdV . Insbesondere sind alle U 2 O(V; h ; i) normal. Beweis: wie Fakt 6.1.4. Lemma 5: Sei V ein Euklidischer Vektorraum mit dimV 6= 0 und A ein normaler Endomorphismus von V , so da V = Vr;' (A) fur ein r > 0 und 0 < ' < gilt. 1. Dann ist jedes Element von v in einem zweidimensionalen A-invarianten Unterraum enthalten. 2. U = A=r 2 O(V ). Insbesondere gilt hAx; Ayi = 0 falls hx; yi = 0. 3. Das orthogonale Komplement eines A-invarianten Unterraumes ist A-invariant. 4. V hat eine orthogonale Zerlegung in zweidimensionale A-invariante Unterraume. 102
0<'<
r>0

|

|

6=f0g nur

{z

V s (A) 2

{z

} }

M
r>0

V (A) \ Vr;' (A)

0<'<

=f0g

Aber A kann in V keine Eigenvektoren haben. e1i = 2 = kAe1k2 = a2 + c2 = r2 cos2 ' + c2. also kAxk = rkxk. (1)).' die geforderte Eigenschaft. e1 i = hr cos ' e1 . 3. also kUxk = kxk. da der erste dieser Falle eintritt. fi ). Falls der zweite Fall eintreten sollte. Es gilt r c = r sin '. so vertauschen wir e1 und e2 und erhalten auf diese Weise eine Orthonormalbasis von V . Dann gilt V = ? W W ? . in der AjWi die Matrixdarstellung r cos ' rrcos ' hat. denn wenn er eindimensional ware. ~ ~ 4.'(A) in eine orthogonale direkte Summe L Vr.'(U): V = V1 (U) V 1 (U) 0<'< Beweis: 103 . so ware Mat B (A) symmetrisch. Axg) A-invariant. xi. Beweis durch Induktion nach dim(V ).' (A) = k=1 Wi zweidimensionaler A-invarianter Unterraume. ek . e1 i. Ebenso zeigt man d = r cos '. A e1 i = hA e1 . Nach Lemma 4 ist U orthogonal. Also ist W ? U-invariant und damit auch A-invariant. ware x ein Eigenvektor von A. 1. U yi = hx. Es gilt c 1 hAe1 . U ein orthogonaler Endomorphismus von V . Wenn b = c ware. auf die der erste Fall zutri t. W V ein zweidimensionaler A-invarianter Unterraum mit x 2 W (vgl. Es gilt M V1. e2) und sei Mat B (A) = a d . y 2 W. Nach der Induktionsvoraussetzung ist W ? die orthogonale direkte Summe von zweidimensionalen A-invarianten Unterraumen.1. dann ist W auch U-invariant. Sei W V A-invariant. Damit tritt einer der beiden behaupteten Falle ein. e1i = he1 . 2 Bemerkung: Auf (Vr. Fur x 6= 0 ist dieser Unterraum zweidimensional. 2 Lemma 6: Unter den Voraussetzungen von Lemma 5 sei zusatzlich V zweidimensional. Also c = d. Folgerung 2: Sei V ein Euklidischer Vektorraum. e1i = h 2 (A + A )e1 . und ~ ~ hUx. fk ) von Vr. : : :.' (AjW ? ).' (A))C ist die Komplexi zierung der Einschrankung von A ein normaler Endomorphismus mit den Eigenwerten re i' . A Axi = r2 hx. b Beweis: Sei B = (e1. Wenn B eine Orthonormalbasis von V ist. also a = hAe1 . Ebenso zeigt man b = r sin '. Dann r sin hat die Orthonormalbasis (e1 . f1. im Widerspruch zu der schon bewiesenen Summenzerlegung aus Theorem 5. Nach Lemma 6 hat Wi eine i ' sin ' Orthonormalbasis (ei . Dann Ae1 = ae1 + ce2 . Nach (3) ist W ? A-invariant und man sieht leicht W ? = Wr. also r cos '. Sei x 2 W ? . Also ist fur alle x 2 V der Unterraum L(fx. 2 Beweis von Theorem 5. also ist U jW ein orthogonaler Automorphismus von W. 2. Es gilt kAxk2 = hAx. Es gilt A2 = A(A + A ) AA = 2r cos 'A r2IdV . : : :. dann gibt es ein y 2 W mit y = U y . Sei die Behauptung fur Vektorraume kleinerer Dimension als V bewiesen. beginnend mit dem trivialen Fall dim(V ) = 0. (2): Nach Lemma 5 zerfallt Vr. Sei x 2 V f0g. so gilt ' sin ' r sin Mat B (A) = r cos ' rrcos ' oder Mat B (A) = rrcos ' r cos ' : r sin sin ' ' Dabei kann B stets so gewahlt werden. yi = 0. yi = hUx. also ware A selbstadjungiert. Axi = hx.

Wegen kUxk = kxk. folgt ebenfalls aus Theorem 5. V1. det(U) = 1). h .h.' (U). so da V = V1 (U) V1. K). 2.' (U )=f0g cos ' sin ' dim(V1. Falls det(U) = 1. d. i) fIdV g. Beweis: folgt aus Lemma 6. hat V 1 (U) ungerade Dimension.. falls U 2 SO(V. Es folgt det(U) = det(U jV1(U ) ) det(U jV 1 (U )) = 1( 1)dim(V 1 (U )) det(U jV1. folgt. so hat auch V 1 (U) gerade Dimension (nach (3)). den Drehwinkel von U. und sei X = Y Z eine direkte Zerlegung von X in A-invariante Unterraume. : : :. B 2 Mat (l.' (U) = f0g fur r 6= 1. so ist 1 ein Eigenwert.h. Dann gibt es ein eindeutig bestimmtes ' mit 0 < ' < . also ist dim(V1 (U)) ungerade und daher ungleich Null. 1.'(U ) ) | {z } =1. Die Behauptung folgt nun aus Theorem 5.' ) = cos '11k cos '1 1k sin 1 1k : Beweis: 3. i) (d. Es gilt UU = IdV . Fakt: Sei A ein Endomorphismus eines endlichdimensionalen Vektorraumes X. hat U einen Eigenwert. Wenn die Dimension von V ungerade ist. A 0 = det(A) det(B). l. sind 1 die einzigen Eigenwerte von U. Folgerung 4: Sei V ein dreidimensionaler Euklidischer Vektorraum und sei U 2 SO(V. A 2 Mat (k. falls V1. Beweis: folgt aus Folgerung 2. k. : : :. 104 . 2 Folgerung 3: Jedes Element von SO(2) fId g hat bezuglich der Standardbasis des IR2 die Matrixdarstellung r cos ' r sin ' r sin ' r cos ' mit 0 < ' < 2 und ' eindeutig bestimmt. h . Wenn zusatzlich det(U) = 1 gilt. K): 0 B Der Beweis erfolgt durch Induktion nach k. ek .2. weil V1. fk ) mit '1 k sin '1 Mat B (U jV1.'(U ))=2 = ( 1)dim(V 1 (U )) sin ' cos ' 0<'< Y Y 0<'< 4. Dann gilt det(A) = det(AjY ) det(AjZ ). also gilt Vr. V 1 (U) hat gerade Dimension.' (U) hat eine Basis B = (e1 . 3.' (V ) fur 0 < ' < gerade Dimension hat. 4. Au osung nach der ersten Zeile. Falls zusatzlich det(U) = 1 gilt. f1 .

Der Grad des Nullpolynoms sei 1. Dann gilt fur x 2 K 1. deg Qg ( 1 + 1 = 1. De nition 1: Ein Polynom mit Koe zienten aus K ist eine Folge p = (pk)1 . In p(T) = deg p pk T k mu k=0 man T als eine Variable au assen. 2. Zum Beispiel gilt x2 + x = 0 fur alle x 2 IF2. 1 +c = 1 8c 2 IN). Die Multiplikation zweier P Polynome (pk )1 und (qk )1 ist durch die Folge (vk )1 gegeben. Falls deg Q < deg P.j =0 pi qj xi+j = 1 X i=0 ! 0X 1 1 pixi @ qj xj A = P(x)Q(x) j =0 Die zweite Formel ist noch einfacher. Deshalb konnten wir Polynome nicht einfach als Funktionen von K P nach K de nieren. denn dann sind beide Seiten 1. falls p(x) = k=0 k (diese p(x) = 0 gilt.deg(P +Q) maxfdeg P. (P + Q)(x) = P(x) + Q(x). Beweis: Sei PQ = R = (rk )1 . falls P oder Q verschwindet. so gilt insbesondere deg(P + Q) = deg P. Diese Menge bildet einen KVektorraum mit den Operationen (pi )1 + (qi )1 = (pi + qi)1 . : : :) de niert. Sei P 6= 0 und Q 6= 0. k=0 k=0 k=0 k Fur x 2 K und p = (pk )1 2 K T] sei der Funktionswert von p an der Stelle x durch k P1 p xk de niert=0 Summe ist tatsachlich endlich). Q 2 K T ]. x ist eine Nullstelle. 0. i=0 i=0 i=0 (pi )1 = ( pi )1 : i=0 i=0 Das konstante Polynom ist durch die Folge ( . Dann gilt k=0 R(x) = = 1 X k=0 rk xk = 1 k XX 1 X k=0 i=0 p i qk i xk i. Sei R = PQ = (rk )1 . Wir bezeichnen den Grad von p mit deg p. Dann gilt k=0 ra+b = a+b X i=0 pi qa+b i: 105 . in die man auch Elemente von Erweiterungskorpern von K einsetzen kann. Wir schreiben p(T ) = i0 X k=0 6. Fakt 1: Seien P. deg(PQ) = deg P +deg Q .Sei K ein Korper. a = deg P. Der Grad eines von Null verschiedenen Polynoms p ist das gro te i mit pi 6= 0. Bemerkung 1: Wenn K endlich ist. gibt es von Null verschiedene Polynome p 2 K T ] mit p(x) = 0 fur alle x 2 K. Die dritte Formel ist o enbar richtig. b = deg Q. wobei vm = m=0 pk qm k .3 Das charakteristische Polynom pk T k : Sei K T ] die Menge aller Polynome mit Koe zienten aus K. so da pi 2 K k=0 und ein i0 mit pi = 0 fur i > i0 existiert. (PQ)(x) = P(x)Q(x).

Wenn X 6= X. 2 i=0 Bemerkung: 1. und in pi qk i verschwindet fur i > a der erste Faktor. P ist genau dann ein konstantes Polynom. seien x1 . Sei K ein endlicher Korper. (K T ]. also deg R = a+b = deg P +deg Q. Nach Induktionsvoraussetzung kann P als P = XQ+R ~ dargestellt werden mit deg R < deg Q. Also deg P < deg P. denn (K T ]. +) ist eine abelsche Gruppe. Dann gilt aber P = XQ + R mit ~ X(T ) = X(T) + pdeg P T deg P deg Q : qdeg Q Damit ist die Existenz der Division mit Rest bewiesen. Man sagt dazu. xq die Qq Elemente von K und sei P(T) = q =1(T k xk ). Sei S = P + Q = (sk )1 . Falls X = X folgt sofort R = R. Fur k > a + b gilt k X rk = pi qk i. deg Qg. Dann gilt deg P = q. wenn deg P = 0 oder deg P = 1. Widerspruch. Induktion nach deg P. +. Insbesondere folgt aus P 6= 0 und Q 6= 0 deg(PQ) = deg P + deg Q 0. Dabei sind X und . R 2 K T] und deg R < deg Q. Also deg S k=0 maxfdeg P. Beweis: Existenz der Division mit Rest. 4. sein fuhrender Koe zient ist pdeg P q qdegQ deg Q = pdeg P : ~ ~ ~ ~ Also gilt pdeg P = 0. Q 2 K T] und Q 6= 0. Also bleibt in der letzten Summe nur ein Summand ubrig. )). 2. ) ein kommutativer Ring mit Einselement ist (ebenso wie (Z. XQ+R = P = XQ+ R mit deg R < deg Q und deg R < ~ ~ ~ deg Q. Fur das konstante Polynom 1 gilt 1P = P. P 6= 0. deg Qg gilt sk = pk + qk = 0. Fur k > maxfdeg P. der Grad der rechten Seite dagegen < deg Q. Es gilt auch das Distributivgesetz P(Q+R) = PQ+PR. aber P(x) = k=1 (x xk ) = 0 fur x 2 K. also PQ 6= 0. P = XQ + R mit X 2 K T]. fur i < a gilt a+b i > b und es verschwindet der zweite Faktor. Sei weiterhin deg P deg Q. ~ ~ ~ Beweis der Eindeutigkeit: Angenommen. (K T ]. fur i a der zweite Faktor. 2 106 Satz 1: (Division mit Rest) Sei P. va+b = pa qb 6= 0. Fur deg P < deg Q ist P = 0Q + P eine Division mit Rest. also deg S = deg P. Q 3. : : :. Polynomaddition und Polynommultiplikation sind kommutativ und assoziativ. Sei ~ P(T) = P(T) pdeg P T deg P deg Q Q(T): qdeg Q Der Grad des Subtrahenden ist gleich deg P. Dann kann P mit Rest durch Q geteilt werden. fur das konstante Polynom 0 gilt P + 0 = P und 0P = 0. Also gilt ra+b 6= 0 und ri = 0 fur i > a+b. R durch diese Eigenschaften eindeutig bestimmt. ~ ~ ~ so ware in Q(X X) = R R nach Fakt 1 der Grad der linken Seite deg Q+deg(X X) deg Q. es gilt namlich k i > a+b i b. +) ist eine abelsche Gruppe.Fur i > a verschwindet in piqa+b i der erste Faktor. Falls deg Q < deg P gilt sdeg p = pdeg p + qdeg p = pdeg p 6= 0. Sei die Existenz der Division mit Rest durch Q fur Polynome kleineren Grades als P bewiesen. +.

. : : :. Fur deg P = 0 sei k = 0 und Q = P. Also ist fx1. Beweis: Existenz durch Induktion nach deg P. Dann gilt 0 = k=1 (T xi)vi (Q(T) Q(T )). xkg sein. Angenommen. Wegen deg R < deg(T x) = 1 ist R konstant. Wenn P keine Nullstelle hat. Beweis: Sei P(T ) = Qk=1 (T xi)vi Q(T ) wie in Fakt 2. wenn die Summe der fuhrenden Koe zienten Null ergibt. vi 2 IN eindeutig bestimmt. vk = 1. xj = xj und vj = vj fur i 6= j und vi = vi + 1. Dann gilt ~ ~ ~ 0 = P(T) P(T ) = (T x1)v1 i=1 (T xi)vi Q(T) "Y k Aber K T ] ist nullteilerfrei. : : :. sei k = k. wobei Q 2 K T] mit Q(x) 6= 0 fur alle x 2 K und x1. Fakt 2: Jedes Polynom P 6= 0 kann auf eindeutige Weise als P(T) = k Y dargestellt werden. Sei P(T) = ~=1(T xi )vi Q(T) i ~ Sie existiert nach der Induktionsvoraussetzung. Damit ist der Beweis der Existenz abgeschlossen. Also Q ~ ~ 2 vi = vi fur 1 i k. Sei die Behauptung fur Polynome kleineren Grades bewiesen.B. denn eine Zerlegung der beschriebenen Art fur P. denn x1 ist eine Nullstelle der rechten Seite. i Beweis der Eindeutigkeit der Zerlegung: Angenommen. Bei der Multiplikation multiplizieren sich die fuhrenden Koe zienten.Bemerkung: Der fuhrende Koe zient eines von 0 verschiedenen Polynoms P = (pk )1 ist k=0 pdeg P . i = 1 und v1 < v1 annehmen. Der Grad einer Summe zweier Polynome gleichen Grades ist genau dann kleiner als der Grad der Summanden. xi = xi. das Produkt zweier von 0 verschiedener Polynome ist von 0 ~ verschieden.d. 107 . Eine andere Zerlegung der Q ~ ~ beschriebenen Art fur P hat also die Form P(T) = k=1 (T xi)vi Q(T ). Falls x = xi fur ein i. Man nennt die vi die Vielfachheit der Nullstelle xi. verschwinden. es gabe i ~ ein i mit 1 i k und vi 6= vi . Dann mu einer der Faktoren Q(x) oder (x xi)vi . Also P(T) = (T x)P(x).h. Wegen (T x1 )v1 6= 0 mu in der letzten Gleichung der Faktor in eckigen Klammern verschwinden: k k Y ~ Y ~ ~ (T xi )vi Q(T) = (T x1)v1 v1 (T xi)vi Q(t): Dies ist nicht moglich. xk g = fx 2 K j P(x) = 0g durch P eindeutig bestimmt. mu x 2 fx1. ~ ~ ~ P(T) = k=1 (T xi)vi Q(T ). Falls kein i mit 1 i k und x = xi existiert. : : :. In beiden Fallen gilt k. Wir konnen o. nicht aber der linken.A. Wegen P(x) = Qk ~ ~ ~ ~ (x x)P(x)+R(x) = R(x) gilt R = 0. sei k = 0 und Q = P. dann dividieren wir P mit Rest durch (T x): ~ P(T) = (T x)P(T ) + R. ~ ~ ~ deg P = deg(T x) + deg P = 1 + deg P. dann i deg P = k X i=1 i=2 i=2 i=2 (T ~ ~ xi)vi Q(T) (T k ~ Y x1)v1 v1 (T i=2 xi)vi Q(T) # : deg(T xi )vi + deg Q = k X i=1 vi + deg Q k = Anzahl Nullstellen von P in K: 2 Bemerkung: Die Zahl k aus Fakt 2 ist die Anzahl der verschiedenen Nullstellen von P in K. 1 i k. vi = vi fur 1 i k und xk = x. xk paarweise verschieden sind. also Q = Q. Weil Q keine Nullstelle hat. ~ sei k = k ~ ~ ~ ~ 1 i Q gilt. dann ~ + 1. d. Auf der anderen Seite sind alle xi Nullstellen von P. Wenn x eine Nullstelle von P ist. x ist eine Nullstelle von P. k. ~ i Folgerung 1: Ein Polynom P 6= 0 n-ten Grades hat hochstens n verschiedene Nullstellen.

xng. : : :.vi nennt man dabei die Vielfachheit der Nullstelle xi. Dann ist p n p p n rei ' = n r cos ' + in r sin ' n n eine n-te Wurzel aus z. die Zerlegung aus Fakt 2 nimmt die Form L Y P(T ) = q (T xi)vi an. Beweis: Nach De nition 2 mu das Polynom Q aus Fakt 2 konstant sein. Faktoren (T xi ) nennt man Linearfaktoren. r 0. Der erste weitgehend algebraische Beweis wurde von E. mit Q(x0) = q 6= 0 (vgl. Artin und Schreier angegeben (1922). Jedes Polynom ungeraden Grades hat eine Nullstelle. 2 Bemerkung: Beim Beweis von Theorem 6 konnen wir uns auf Polynome mit fuhrendem Koefzienten 1 beschranken. Beweis: Angenommen. Bemerkung 2: Eigentlich betrachtet man Theorem 6 als einen Satz der Analysis. 2 Theorem 6: (C. 108 . 2 Bemerkung: Ein endlicher Korper ist niemals algebraisch abgeschlossen. ist ein Polynom P 2 K T ] durch die Funktion K ! K. Beweis: Sei K = fx1. Lemma 1: Fur jedes n 2 IN kann man aus jeder komplexen Zahl z eine n-te Wurzel ziehen. da P stetig ist. De nition 2: Ein Korper K ist algebraisch abgeschlossen. Gau . eindeutig bestimmt. C ! IR.F. wenn jedes nichtkonstante Polynom eine Nullstelle in K hat. Sei P(T ) = p + (T x0)k Q(T). Sei also P(T) = T n + n 1 X k=0 i=1 pk T k : () Lemma 2: Sei x0 ein lokales Minimum der Funktion z 7! jP(z)j. Dann ist x0 eine Nullstelle von P. p = P(x0) 6= 0. Beweis: x2 + 1 = 0 hat keine reelle Losung. Beweis: Sei z = rei' = r cos ' + ir sin '. hat P nach dem Zwischenwertsatz eine Nullstelle. 2 Fakt 4: IR ist nicht algebraisch abgeschlossen. Insbesondere ist dies fur Korper mit char(K) = 0 der Fall. 2 Bemerkung: Folgerung 1 hatte auch mit der Formel fur die Vandermondsche Determinante bewiesen werden konnen. Folgerung 2: Wenn K unendlich viele Elemente hat. Fakt 3: Dann zerfallt jedes Polynom P 6= 0 in Linearfaktoren. d. dann hat das Polynom P(T ) = 1 + Qn=1(T xi) keine Nullstelle i in K. x 7! P(x). Beweis: Folgt aus Folgerung 1. 0 ' < 2 . Dann limT !1 P(T) = 1 und limT ! 1 P(T) = 1. Fundamentalsatz der Algebra) C ist algebraisch abgeschlossen. Sei deg P ungerade und der fuhrende Koe zient 1.h.

(i) ) Y 1 i n (i)6=i 1 i n (T aii ). (i)=i 109 . Sei z eine k-te Wurzel aus q . Sei also A = (aij )n =1. Fur r > 0 gilt a :+ jP(x0 + rz)j = jp + (rz)k Q(x0 + rz)j = jp p rk (q + | 0rz + : : {z ak (rz)k})j q = jp prk + O(rk+1)j jpj(1 rk ) + crk+1 O(r) fur eine Konstante c. Beweis: Die Eindeutigkeit von PA folgt in beiden Fallen aus Folgerung 2. so gilt jP(x0 +rz)j < jP(x0)j. ( )). Nach Satzen aus der Analysis nimmt die stetige Funktion f(z) auf der kompakten Menge fz j jz j S g ein Minimum an. Widerspruch c zu unserer Annahme p = P(x0) 6= 0. n. Sei A 2 Mat(n. jp0j + nR).p Satz 1. ( ). Dann ist P 2 K T] eindeutig durch die Funktion K ! K. (i) ai. Sei V ein endlichdimensionaler K-Vektorraum und A ein Endomorphismus von V . de niert. Fur jxj > S = max(1. Es gilt deg PA = n. (i) ai. p ) ist. (i) ) ( ai. Nach der Leibnizschen Determinantenformel i. x 7! P(x). x 2 C. n Y 2Sn sign( ) n Y i=1 ( i. k > 0. Dann gibt es genau ein Polynom PA 2 K T ] mit det( IdV A) = P( ) fur alle 2 K.j = wobei PA. Dann existiert genau ein Polynom PA 2 K T] mit det( 1 n A) = 1 PA( ). Nach der vorhergehenden Uberlegung ist dieses Minimum auch ein Satz 2: 1. deg PA = dimV . Sei R = maxfjpij j 0 i < ng. Wenn also 0 < r < min(1. K). (2) zu beweisen (PA = PMatB (A) ).j gilt det( 1 n A) = det( ij aij )n =1 = 1 i. Fakt 2). 2 K T] durch PA. gilt f(x) = jP(x)j jxjn j n 1 X i=0 pixi j jxj 1 jxjn nRjxjn 1 = jxjn 1(jxj nR) > p0 = jP(0)j = f(0): Minimum von f auf ganz C. (i) ) i=1 Y (T i. 2 Lemma 3: Die (stetige) Funktion f(z) = jP(z)j nimmt auf C ein Minimum an. 2. 2 Theorem 6 folgt nun aus Lemma 2 und Lemma 3. Es genugt. (T) = sign( ) = sign( ) X X 2 Sn PA. da K unendlich viele Elemente hat. 2 Bemerkung 3: Aus Grunden der Einfachheit nehmen wir an. Beweis: Sei n der Grad des Polynoms (vgl.

Die Spur eines Endomorphismus eines endlichdimensionalen Vektorraumes ist die Spur seiner Matrixdarstellung bezuglich einer beliebigen Basis. (1) setzt man dann PA = PMatB (A) und hat dann noch die Unabhangigkeit dieses Polynomes von B zu zeigen. Die Formel des )n i. also i. Erinnere an den Beweis von Satz 2: det( Id A) = PA( ) = 2Sn PA. wobei PA = 1 des Grades von PA . AB = (cij )P=1. K) ist die Summe ihrer Diagonalelemente. (i)=i 110 . PA. P 2Sn PA. : : :. K). ~ Bemerkung: Es gibt auch die Konvention PA ( ) = det(A Id) fur das charakteristische Polynom. denn PA = PA. n.j n a b . ( ) = sign( ) Y 1 i n ( ai. Also det( 1 n A) = PA ( ). ) (=) jfi j 1 i n ^ (i) = igj = n n 2 = Id . 6= Id () denn jede Permutation von f1. Der zweithochste Koe zient des charakteristischen Polynoms von A ist tr(A). Aus ( ) und Fakt 1 folgt deg(PA ) = n. Sei A = (aij )n =1. B 2 Mat (n.j n b a . Fakt 6: Seien A. tr(AB) = tr(BA) 2. d = i. Insbesondere ist die Spur eines Endomorphismus von V unabhangig von der Wahl der Basis von V. B = (bijP =1. la t wegen ihrer Bijektivitat auch die verbleibende Zahl fest. Bemerkung: Die De nition von PA. . n. De nition 3: PA nennt man das charakteristische Polynom von A. De nition 4: Die Spur tr(A) von A 2 Mat (n. ng. Allgemeiner: tr : Mat(n.j Matrixproduktes liefert cik = j =1 ij jk ik j =1 ij jk tr(AB) = n X i=1 cii = n n XX i=1 j =1 aij bji = n n XX j =1 i=1 bjiaij = n X j =1 djj = tr(BA): 2.j i. die n 1 dieser Zahlen festla t.Id + PA. ( ). und damit auch die De nition von PA funktioniert auch Beweis: n 1. (i) ) Y (i)6=i 1 i n ( aii ). P 3. In der Situation von Satz 2. ist klar. Es gilt: 1. tr(A + B) = tr(A) + tr(B) 3. : 6=Id deg=n | {z } deg<n nach Fakt 1 | {z } X 2 fur endliche Korper K. BA = (dij )n =1. Es verbleibt die Bestimmung deg(PA. n. K) ! K ist ein lineares Funktional.de niert ist.

sei A ein Endomorphismus von V .Id uberein. (3) macht nach dem. ist Eigenwert von A genau dann. Wenn umgekehrt X V und ein Komplementarraum Y zu X vorgegeben sind. Alle anderen Teile von Fakt 6 haben wir uber beliebigen Korpern bewiesen. Dann gilt Mat B.B (A) = Mat B.B (A) ~ ~ ~ ~ = Mat B. falls 6= Id. Sei B eine andere Basis von V . nur uber unendlichen Korpern Sinn (obwohl es allgemein gilt). = ~ ~ Bemerkung: 2 1.B (Id)Mat B.B (A)) = tr(Mat B.B (Id) = MMat B. Eine Involution ist ein Endomorphismus i von V mit i2 = id . Beweis: ist klar. Also stimmt der zweithochste Koe zient von PA mit dem zweithochsten Koe zienten von PA. und der Orthogonalprojektor ist ein Projektor. dann hat A einen Eigenwert.B (A)) von der Auswahl ~ dieser Basis unabhangig ist. Ein Projektor ist ein Endomorphismus p von V mit p2 = p.B (A)). 2.B (Id)Mat B. 2. 1.Id) = n. PA. dann 111 Beispiel: Wenn V ein Euklidischer Vektorraum oder ein Euklidischer Hilbertraum ist. 3. Ein Komplementarraum zu X ist ein Unterraum Y V mit V = X Y .B (A)) = tr(MMat B. Wir mochten zeigen. Dann ist Y = ker(p) ein Komplementarraum zu X = Bild (p). Wenn K algebraisch abgeschlossen ist (z. C). ein Komplementarraum zu X. wenn Nullstelle des charakteristischen Polynoms PA ist. ) n 2.B M 1 ~ ~ tr(Mat B.B M 1) (1) tr(M 1MMat B. da tr(Mat B. 3. was wir uber das charakteristische Polynom bewiesen haben.ng Y ( 1)n jS j aii jS j i62S aii n 1 + Terme vom Grad n 2 tr(A) n 1 + Terme vom Grad n 2: Sei nun A ein Endomorphismus von V . deg(PA.B. Fakt 7: Sei dim(V ) = n.B (A)Mat B. Bemerkung 5: Sei p ein Projektor. so ist X ? . Das charakteristische Polynom von A hat die Form PA ( ) = n tr(A) n 1 + : : : + ( 1)n det(A): 2. De nition 5: Sei V ein Vektorraum. (1)-(3) von Fakt 6 konnen nun auch auf Endomorphismen von endlichdimensionalen Vektorraumen angewendet werden.:::. 1.deg(PA.Id ( ) = = = Y 1 i n ( i=1 aii ) = X n+ n n X S f1. Sei X V ein Unterraum.

falls dim(V ) < 1. . Beweis: ist klar. .. . . Beweis.. .. 1.. . Ein Endomorphismus U von V ist unipotent. Bemerkung 7: Insbesondere nehmen Projektoren und. 1 ::: 0 0 ::: 0 9 . In der Tat aus 6= 0 und v 2 V (N) f0g wurde N k v = k v 6= 0 fur alle k folgen. . Wenn i eine Involution auf V ist. x 2 X. folgt 0 = p(v) = p(p(w)) = p2(w) = p(w) = v: Also ker(p) \ Bild (p) = f0g.existiert genau ein Projektor p mit ker(p) = Y und Bild (p) = X. Die Spur eines Projektors p ist dim(Bild(p)). so sei p : V ! V durch p(v) = x de niert. dim(ker(p)) . falls ein k 2 IN mit N k = 0 existiert. . Wir zeigen. Wenn umgekehrt V = X Y gilt. 2.. Wenn v 2 V vorgegeben ist. . das charakteristische Polynom von p ist Pp (T ) = (T 1)dim(Bild(p)) T dim(ker(p)) . Aus v 2 ker(p) \ Bild (p). . . = ( 1)dim(Bild(p)) dim(ker(p)) : 9 det( Id p) = 0 : : : 0 ::: 0 = . 0 ::: 0 0 ::: 6. etwa v = p(w). 0 ::: 1 0 : : : 0 . Fakt 1: Das Spektrum eines nilpotenten Endomorpismus besteht nur aus 0. Bild (p) = X. . falls U id V nilpotent ist.4 Die Jordansche Normalform da ein k > 0 existiert mit U k = id . y 2 Y die eindeutige Zerlegung von V in der direkten Summe X Y ist. . Wenn i eine Involution und char (K) 6= 2 ist. . . Beweis: Sei p vorgegeben.. falls char (K) 6= 2. . . wobei v = x + y.. ker(p) = Y . so gilt Pi (T) = (T 1)dim(V1 (i)) (T + 1)dim(V 1 (i)) .. Bemerkung: Fur einen Korper K mit char (K) = 0 ist fur ein unipotentes U nicht gesichert. auch Involutionen eines endlichdimensionalen Vektorraumes in einer geeigneten Basis stets Diagonalgestalt an. . Dann ist p2 = p. Durch Involution auf V Projektion in V i ! p = 1 (id V + i) 2 i = 2p id V p sind zwei zueinander inverse Bijektionen de niert. = dim(Bild (p)) . . . . so gilt V = V1 (i) V 1 (i). da fur 6= 0 V (N) = f0g. . 2 112 De nition 1: Ein Endomorphismus N von V ist nilpotent. so gilt: v = p(V ) + | {z )) : |{z} (v p(V } 2Bild(p) 2ker(p) Also V = ker(p) Bild (p). . . . 2 Bemerkung 6: Sei char (K) 6= 2. .

: | 0 {z: : }0 i 1 C C C C A Satz 1: Sei N ein nilpotenter Endomorphismus eines endlichdimensionalen Vektorraumes V .. C C 0 ::: ::: 0 ::: 0 ::: ::: 0 C C . . .. aber N k 1 6= 0... . .. . . . C . C . C .j Bemerkung: 0 B B B B B B B B N =B B B B B B B B B @ 113 . . .. ... ... : : : . .1 2 V mit N pi 1(e1. .. . .. v = p=1 j e1.. Fur 1 j p1 sei e1.1 j pi mit e falls j < pi Neij = 0i.. C .Bemerkung 1: In Korpern mit Charakteristik 0 gilt die Neumannsche Reihe: ( id N) 1 = 1 X Beispiel: k=0 k 1N k : 00 B. .1. . N = B . k) C A 1 . . Behauptung: Die e1. . .k + p1 X j =k+1 j N p1 k e1. .j = 0 mit j 2 K. . .. Sei k die kleinste Zahl mit k 6= 0. . .. . . .. . 0 . . pL eindeutig bestimmt. beginnend mit dim(V ) = 0. C . . Sei die Existenz fur Vektorraume kleinerer Dimension als V bewiesen. Sei p1 das kleinste p mit N p = 0.. . . C . .. . . . .. 0 1 0 0 0 0 ::: 0 B .. . : : : . . . C 0 ::: 1 0 ::: 0 ::: ::: 0 C C .j +1 falls j = p : i 0 ::: ::: 0 ::: 0 ::: ::: 0 1 . . . . . . @ .. : : : . . . Sei e1. . P1 1 j p1 . . ::: ::: ::: . 0 0 0 .. . .... B @0 erfullt N k = 0. . . .... Dann gibt es p1 p2 : : : pL 1 mit i=1 pi = dim(V ) und eine Basis (eij )1 i L. 0 ::: ::: 0 ::: 0 ::: 1 0 Beweis von Satz 1 durch Induktion nach dim(V ). C .. C . . . Angenommen. ..j . 1 0 1 C C 2 Mat(k. . . : : :. ::: . .1 ) 6= 0.. . . .. sind linear unabhangig. 1 . C . . . : : : 1 . . . .. . . C . denn 1 . B N i = B . Dann gilt N p1 k v = k N p1 k e1. B...j = N j 1e1. . . . : : : . . . die nicht j alle verschwinden. . PL Dabei sind L und p1 .. ::: 0 ::: ::: . .. . A .

p1 +k j j k N ) | {z(e1. und Y = ker(q) ist ein N-invarianter komplementarer Unterraum zu X. Fur j k x 2 V sei p1 X q(x) = l(N p1 j (x))e1.1 | {z } l( = Weiterhin ist q mit N vertauschbar: q(Nx) = = p1 X 0 j<k e1. fuhrt folgende Betrachtung zum Widerspruch: Eine Basis des Bildes von N K ~ ist gegeben durch fei.j +K oder 0. Also max(pi K.j )L.p ~ ~ ~ schaft. e1.j + r =1 #k fk ) = p1 ist ein Funktional l 2 V mit l(e1. Also ist die lineare Unabhangigkeit der e1. ~ ~ Falls pi < pi gilt. Nach der Induktionsannahme gibt es eine Basis (ei.j de niert. ~ Beweis der Eindeutigkeit: Sei (~i. Angenommen.j =1 eine andere Basis von V mit der beschriebenen Eigene ~ .k } p1 j )e1. pi K): j =1 114 dim(Bild(N K )) = L X i=1 pi = ~ ~ L X i=1 pi < L X i=1 pi = dim(V ): .j = e1. fr ) eine Basis von V .j j 1 i L ^ K + 1 j pig. Die e1.j =1 von Y .pi.= k N p1 k N k 1e1. Dann ist (e )L. : : :.j 1) l(N j =1 0 p1 1 1 j=2 0 p1 1 X p1 ~ A @ X p1 ~ A N @ l(N j x)e1.j K fur j > K oder N K ei.j = 0 i.j N p==0 X l(N p1 +1 j x)N(e1. Wir werden einen komplementaren N-invarianten Unterraum Y zu X nden.k : denn Ne1.j : Dann ist q ein Projektor auf X. Also qN = Nq. Wir konnen L L voraussetzen.j =1 j = pi genschaft. da v = 0 ist.denn p1 +j k 1 p1 N p1 k N j 1e1.1 .p1 = 0. 0). Sei (e1.j bilden also eine Basis eines Teilraumes X von V . ~ Dann gilt dim(V ) = ~ L X p1 1 p1 +1 j x)e1. denn Bild (q) X und q(e1.pi eine Basis von X mit der geforderten EiNei.j i=1. Ebenso ~ L X ~ dim(Bild(N K )) = max(0.j = N K ei.1 =0 . Durch P1 P l( p=1 j e1.~ = N l(N j x)e1. Angenommen.j = ei.j +1 j < pi . i=1 denn ei. f1.j bewiesen.1 + p1 X j =k+1 j = k e1.j )iL=11. : : :. es gabe ein i mit 1 i L und pi 6= pi und pj = pj fur 1 j i.p1 6= 0. so da i=2 ei.k ) = p1 X j =1 j =1 =N p1 +j k 1 e1.j ) = p1 . im Widerspruch zu unserer Annahme.~ j j ~=1 ~=1 j j ~ Widerspruch. L < L und fur 1 i L gilt pi = pi .p1 .

falls dim(V ) < 1). Es gilt die direkte Summenzerlegung: V= die in Wahrheit endlich ist. Theorem 7: Sei A ein beliebiger Endomorphismus eines endlichdimensionalen Vektorraumes V uber einem algebraisch abgeschlossenen Korper K.i.P .i : L und P . also ist V ~(A) A-invariant.i e . Lemma 1: Sei dim(V ) < 1. (1) Q 2K (T )dim(V ~ (A)) .j falls j = P . (2) folgt aus Satz 1.j + e .i 2. zu V ~(A) einen Komplementarraum zu nden. L ~ zum Widerspruch gefuhrt werden. sondern nur die ~ ).i.Fur pi < pi gilt einmal ~ ~ dim(Bild (N pi )) = pk pi fur k i ~ ~ ~ L X = k=1 i 1 X max(0.j )L=1. K. sei e1 . pk pi ) ~ ~ = k=1 L X k=1 (~k pi ) p ~ ~ max(pk pi . Bemerkung: V ~(A) ist A-invariant.i.j =1 mit i e . 0) = dim(Bild(N pi )) ~ ~ Widerspruch. 2 V ~(A) = fv 2 V j 9 k : (A id)k v = 0g ist der verallgemeinerte Eigenraum oder Hauptraum zum Eigenwert . (3) ist einfach. Beweis: Aus (A id )k v =: (A )k v = 0 folgt (A )k Av = A(A )k v = 0. V ~(A) hat eine Basis (e . dim(V ~(A)) < 1 (insbesondere ist AjV ~(A) id nilpotent. PA(T ) = De nition 2: M 2K V ~(A). A beliebig. 1. Falls dim(V ~(A)) =: D < 1. Fur 1 i D gibt es ki mit (A )ki ei = 0. Dann ist (AV ~ (A) )k = 0 mit k = max(k1. Dann gilt die direkte Summenzerlegung V = V ~(A) 1 \ k=0 Beweis: Da uns die Existenz von Eigenwerten (fur von f0g verschiedene V ) garantiert ist Bild (A )k : 115 .i sind dabei eindeutig bestimmt. Ae . : : :.j = 3.j +1 falls j < P . kann die Annahme pi < pi ebenso (durch Betrachtung von Bild (N pi )) Annahme 1 min(L. .i. kD ). Da die Annahme L L bei diesem Argument nicht benutzt wurde. eD eine Basis dieses Unterraumes. : : :. (K ist algebraisch abgeschlossen). besteht das Problem bei (1) darin.i.

.2 .i = p k ..1. Wegen ( ) folgt y 2 ker(A )i und x = 0. : : :. Nach L W ~(Aj ). . Zu ( ): Sei x 2 ker(A )i \ Bild (A )i .L1 . Sei weiterhin 0 0 ::: 01 B . e 1. also V ~(A) = (A #)k V ~(A) Bild (A #)k fur alle k.Lk =1. also V ~(A) W fur 6= #. : : :. fM ) die Basis (e 1 . k. k=1.k = B 1 . .1. C J . : : :.i.1 .1 . . . Sei dim(V ) > 0 und die Aussage (1) fur Raume kleinerer Dimension als V bewiesen.pk. gibt es ein k0 mit (A )k0 jV ~ (A) = 0. Zu ( ): O enbar gilt W ~(A) V ~(A).Lk =1 . x 2 Bild (A )k ( 9 z : x = (A )k z ( 9 y : x = (A )k+1y ( x 2 Bild (A )k+1 . . e 1 . das zu zeigen.i J kpk.j ) eine Basis wie in (2) des Theoremes und sei (f1 .1. C 2 Mat (k.p1.p1. Also gibt es ein k1 mit (y) Bild (A )k = Bild (A )k1 fur k k1. ist die Existenz eines Eigenwertes # 2 K von A garantiert. e 1 . Dann ~ V = V#~(A) W = V# (A) 2 M 2K ~ W ~(AjW ) = V# (A) M 2K f#g V ~(A) = M 2K V ~(A): ~ ~ Daraus folgt (1). . Sei W = k 0 Bild ((A #)k ).1. Zu ( ): W# (A) W \ V# (A) = f0g. Also gibt es y 2 V mit (A )i x = (A )2i y. Fur 6= # ist nun AjV ~ (A) # = (AjV ~ (A) ) ( #) invertierbar (AjV ~ (A) ist nilpotent.i aber eine untere Dreiecksmatrix. T ~ Dann f0g = V# (A) V# (A). Wegen (y) gilt (A )i x 2 Bild (A )i = Bild (A )2i . K): B .2. Weil K algebraisch abgeschlossen ist.). Fur dim(V ) = 0 ist die Behauptung klar. Nach Lemma 1 ist W ein A6 ~ invarianter (leicht zu zeigen) Komplementarraum zu V# (A). . . Dann gilt ker(A )k = V ~(A) () fur k k0. Dann gilt x = (A {z )i y + | (A )i y) : () | } (x {z } 2Bild(A )i 2ker(A )i Beweis von Theorem 7 durch Induktion nach dim(V ).. . Die absteigende Folge naturlicher Zahlen dim(Bild (A )) : : : dim(Bild(A )i ) dim(Bild (A )i+1 : : : stabilisiert sich (die Anzahl der echten Ungleichheiten ist dim(V )).i. und V ~(A) W ~(A) = W \ V ~(A). Also dim(W) < dim(V ). Die letzte Matrix ist 1 1 k=1.i ))N. Dann gilt ( ) Bild (A )i \ ker(A )i = f0g und ( ) V = Bild (A )i + ker(A )i .2.pk. e N .L Dann gilt Mat B (A) = Diag(J k . A @ . Wegen ( ) und (y) genugt es.1. e . also Spektrum = 0. Sei i = max(k0.i det(#id A) = det(#1 M Mat B (A)) = det(Diag(#1 pk. N die Eigenwerte von A.2.Beweis: Wie wir schon bemerkt haben. 0C 0 ::: 1 Seien 1 . Also gibt es ein y 2 V mit x = (A )i y und es gilt (A )2i y = 0. k1).i )N. ihre Determinante ist das Produkt ihrer Diagonalelemente: Die 116 . e 1 . : : :. Lk = L k . . (2) folgt durch Anwendung von Satz 1 auf den nilpotenten Endomorphismus (AjV ~ (A) id). Behauptung: ( ) W ~(Aj ) = f0g und ( ): Induktionsvoraussetzung gilt W = 2K W # W Fur 6= # gilt W ~(AjW ) = V ~(A). . Sei (e . : : :. Zu ( ): Sei x 2 V vorgegeben. : : :.

k T k . wenn fur alle Eigenwerte dim(V (A)) mit der Vielfachheit der Nullstelle des charakteristischen Polynoms ubereinstimmt. Dann wegen P V = 2K V (A). Es gilt PA (T) = (T )dim(V ~ (A)) Q(T) nach Theorem 7. so ist A diagonalisierbar. Mit Anwendung von Bemerkung 2 folgt die Behauptung. Eindeutigkeit: Ubungsaufgabe. Dann V = 2K V (A). und V hat eine Basis aus Eigenvektoren. Sei V V (A) = V ~(A). 2 Bemerkung 2: Theorem 7 und Folgerung 1 gelten auch fur nicht algebraisch abgeschlossene Korper. denn sie ist gleich dim(V ~(A)). wenn tr(N) = det(N) = 0 gilt. denn PA(T) kann keine mehrfache Nullstelle haben. Dies ist genau dann der Fall. Zeige V (D) = V ~(D) = V ~(A). )dim(V ~ (A)) Q(AjV ~ (A) ) = N dim(V ~ (A)) Q(AjV ~ (A) ) = 0 nach Bemerkung 5. Beweis: folgt aus Theorem 7.Diagonaleintrage dieser Matrix sind # k von der Vielfachheit pk. falls fur alle 2 K V (A) und V ~(A) ubereinstimmen. Fur dim(V ) = 2 ist dies genau dann der Fall. folgt 2 V (A) = V ~(A). Bemerkung 3: Eine andere Formulierung fur den Satz uber die Jordansche Normalform ist: Jeder Endomorphismus eines endlichdimensionalen Vektorraumes V uber einem algebraisch abgeschlossenen Korper K kann auf eindeutige Weise als A = D + N geschrieben werden. Damit folgt die Behauptung. Bemerkung 4: Wenn N ein nilpotenter Endomorphismus von V ist. Also 3 PA(A)jV ~ (A) 6:=:1 (AjV ~ (A) P k=0 pA. Bemerkung 5: N ist nilpotent genau dann.) Es genugt nach Theorem 7. Beweis: Es gilt dim(V ~(A)) =Vielfachheit der Nullstelle = 1.3. Weil fur einen Eigenwert V (A) 6= f0g gilt. wobei D diagonalisierbar und N nilpotent ist und N und D kommutieren. k=0 Beweis: (Nur fur K algebraisch abgeschlossen.k Ak = 0. wenn PA (T ) uber K in Linearfaktoren zerfallt.1 +: : :+pk. Der Endomorphismus N = AjV ~ (A) id V ~ (A) von V ~(A) ist nilpotent. so gilt N dim(V ) = 0.1. wenn PA (T) = T dim(V ) . Wegen L = 2K V ~(A) kann dies nur fur V (A) = V ~(A) gelten. Bemerkung 6: Wenn PA (T ) dim(V ) verschiedene Nullstellen hat. Sei A diagonalisierbar. 2 117 . PA (A)jV ~(A) = 0 zu zeigen fur jeden Eigenwert . falls ein Eigenwert ist. Beweis: Existenz der Zerlegung: Sei D durch Dx = x fur x 2 V ~(A) und N durch A D ! de niert. Beweis: folgt aus Satz 1. Theorem 8 (Cayley-Hamilton): Jeder Endomorphismus A eines endlichdimensionalen Vektorraumes uber einem beliebigen Korper erfullt seine eigene charakteristische Gleichung PA(A) := dim V X wobei PA(T) = dim V pA.Lk = dim(V ~k (A)). Beweis: Die letzte Aussage ist L V (A) V ~(A) klar. 2 Folgerung 1: Unter den Voraussetzungen von Theorem 7 ist A genau dann diagonalisierbar.

y) + (y. Folgende Bedingungen mussen gelten: 1. z) = (x. x) = 0 und (x + v) + w = x + (v + w). x) = (x. Bemerkung: Wenn (2) fur x gilt. Au erdem (x. Fur jeden Vektorraum V ist V = (V. Bemerkung 1: Fur x 2 X und v 2 TX sei x + v 2 X das durch die Bedingung (x. (x. also (x. wobei X eine Menge. v 7! x + v bijektiv.1 A ne Raume De nition 1: Ein a ner Raum ist ein Tripel X = (X. Fur jedes x 2 X ist die Abbildung X ! TX. y) + (y. (W + a. V j(W +a) (W +a) ) 118 . x + v) + (x + v. der von x nach y zeigt. x). der Translationsvektorraum von X und : X X ! TX eine Abbildung. die Menge der Punkte des a nen Raumes. x). y 7! (x. x) = 0. V. Daher reicht es auch. (x + v) + w) = v + w. V ). (x + v) + w) = (x. W. TX. x + v) = v eindeutig bestimmte Element. die x. W V ein Unterraum und a 2 V . also (x. (x. Aus (1) folgt (x. V (x. TX ein K-Vektorraum. so ist fur alle x0 2 X die Abbildung y 7! (x0 . Sei V ein K-Vektorraum. W + a = fw + a j w 2 W g: Dann ist ein a ner Raum. y) = y x ein a ner Raum. x) = 0. x) + Beispiel 1: 1. x) = (x. y) = (y. y) bijektiv.7 A ne Raume und Faktorraume 7. sind. y 2 X den Vektor zuordnet. denn (x. denn (x. y) bijektiv. 2. ). (2) fur nur ein x 2 X zu fordern. Dann x + 0 = x. + in V (Bemerkung 1) ist das + in V . z) 2. y) = (x0 . x) + (x. Fur alle x 2 X ist die Abbildung V ! X.

) ist ein a ner Raum (Y. Z ) ! ! Id ist durch das Paar (af. Dann sind alle a nen Unterraume von V von der Form (W + a. Eine Kategorie A besteht aus (a) einer Menge Ob A der Objekte von A (z. f(y) = (x. Menge aller Gruppen. 2. Fur jeden a nen Raum X = (X. . Z). Gruppenhomomorphismen. K-lineare Abbildungen. Die Verknupfung zweier Morphismen a ner Raume (X. y). X ) nach Y = (Y. (d) fur X. g) 7! gf gegeben. Y 2 Ob A ist eine Menge HomA (X. K-Vektorraume. Ein a ner Unterraum von (X. wobei f : X ! Y eine Abbildung und g : TX ! TY eine lineare Abbildung ist und gilt Y (f(x). wobei W V ein Untervektorraum und a 2 V W Beweis: Nach De nition 2. g f h Es mussen dann die Regeln id D f = f = fid C und f(gh) = (fg)h fur A ! B ! C ! D gelten. 3. V ) wie in Beispiel 1 de niert. Dann ist F 1 eindeutig bestimmt.1 ist die lineare Abbildung TX ! TY durch die Abbildung f : X ! Y eindeutig bestimmt. Y ) HomA (Y. Dann haben wir die Kategorien aller Gruppen. Y. Y ) (a. Ein Morphismus a ner Raume von X = (X. Y ) gegeben.b) (Z. W.g) V (V aus ! Beispiel 1). TZ. (c) fur alle X 2 Ob A ist id X 2 HomA (X. In De nition 2. fur den ein F 1 : Y ! X mit FF 1 = id Y und F 1F = id X existiert. Ein Isomorphismus a ner Raume ist ein Morphismus F : X ! Y . wobei V ein Untervektorraum ist und fur alle a. id TX ) gegeben. TX. V. K-a ne Raume). Y ) der Morphismen in A von X nach Y de niert (z. X ) und fur jedes x 2 X ist durch X (f. V jX X ). f(y)) = g( X (x. V. TX. Z 2 Ob A ist die Verknupfungsabbildung HomA (X. Satz 1: Sei V = (V.De nition 2: 1. bg) gegeben. (b) fur Objekte X. y)): 2. V j(W +a) (W +a) ). ein Isomorphismus a ner Raume gegeben. K-Vektorraume oder K-a nen Raume kennengelernt. x 2 X V (a.B. f 3. x) = x a 2 W und fur alle a 2 X 119 ist. W. TX. g = id V . Der identische Morphismus X ! X ist durch (id X . X ) (f. Y Y ). Z) ! HomA (X. Bemerkung: 1. Dann de nieren die Einbettungsabf g bildungen Y ! X und TY ! TX einen Morphismus a ner Raume. g). wobei Y X eine Teilmenge und TY TX ein Unterraum ist. (f. TY. Y ) ist ein Paar (f.g) (Y. Morphismen a ner Raume von X nach Y ). TY.B.2 ist ein a ner Unterraum von V ein Tripel (X. TY.

TX. y) + i=1 i (y. x 7! x a bijektiv ist. 120 . Ein analoger Sachverhalt gilt auch fur Untermengen beliebiger a ner Raume (die zu einem a nen Raum der Form V aus Beispiel 1.die Abbildung X ! W. P i Pp Fur z 2 X gilt dann (z. x )) = Pn (z. Eine nichtleere Teilmenge X V ist genau dann ein a ner Unterraum eines K-Vektorraumes V . Fur 1 i n. x ). xi ). : : :. Dann kann man f x +(1 )y j 0 1g als die Strecke zwischen x und y au assen. Sei a 2 X. #ij 2 K und xij 2 X mit n=1 i = 1 und i Pmi # = 1. 2. Zum Beweis der Hinlanglichkeit sei a 2 X. V jX X ) ein a ner Unterraum von V ist. xi ) Bemerkung: 1. p) = i=1 ni (z. Bemerkung: Sei K = IR. Also gilt fur P x = p die Bedingung in i i i=1 i i=1 i i=1 i i der De nition fur alle Punkte y 2 X. y 2 X gilt x+y = 1 x + 2 x 2 X. Wir konnen X durch X a ersetzen und erreichen 0 2 X. De nition 3: SeiPn = (X. 4. (y. Dann ist X ein Untervektorraum von 1 V : fur x 2 X und 2 K gilt x = x + (1 )0 2 X. dann mu man die Abgeschlossenheit von X unter Der P i=1 i xi. Dann gibt es nach De nition 1 genau ein n mit (y. Dann gilt X = W + a. Seien x1.1 isomorph sind). n X i=1 i xi ) = n X i=1 i (y. so ist W = fx y j x. y) + (y. Dann sei i=1 i xi 2 X das durch 8y 2 X : eindeutig bestimmte Element. Satz 2: Sei char K 6= 2. xn 2 X und seien X a 1 . y) + (y. 1 j mi seien i 2 K. xi ) = Pn ( (z. P3 Satz gilt 3auch fur char K = 2. Sei y fest. ) ein Pnner Raum. 2 also x + y = 2( 2 Bemerkung: 1. y 2 X und 2 K auch x + (1 y) 2 X gilt. P 2. wenn ein Untervektorraum W von V existiert. Beweis: Die Notwendigkeit dieser Bedingung ist klar. so da (X. n 2 K und i=1 i = 1. p) = n n=1 i (y. W. Man kann fur x. p) = (z. 2 Bemerkung: Eine Untermenge X von V nennt man einen a nen Unterraum von V . Dann j =1 ij mi n X X i=1 i( j =1 P #ij xij ) = n mi XX i=1 j =1 ( i #ij )xij : 3. y 2 X g eindeutig bestimmt. y 2 X f x + (1 )y j 2 K g X fur x 6= y als die Gerade durch x und y au assen. x + (1 )x = x. : : :. 2 2 x+y ) 2 X. Fur x. wenn fur alle x. i=1 i = 1 fordern. Wenn dies der Fall ist.

Sei W ein Untervektorraum von V . Satz 1: Sei p : V ! V=W die durch p(a) = a + W de nierte Abbildung. denn aus W + a = W + a folgt a ~ 2 W ~ a 121 . Dies ist eine korrekte De nition. Bemerkung: Elemente von V=W sind gerade die a nen Unterraume von V mit Translationsraum W. ) ein a ner Raum und K = IR. Fur = 1 gilt n = 1 folgt 1 = : : : = n 1 = 0 und i i n6 n X i=1 i xi = (1 n )( n 1 X i=1 1 i n xi ) + n xn 2 M nach (1). A) ! ff 2 L(V. (1))(2) folgt mit Induktion nach n: der Fall n = 2 ist klar. x 2 M gilt Pn x 2 M. De niere eine lineare Abbildung g : V=W ! A durch g(W + a) = f(a). n 2 IR mit i=1 i i 1 i i=1 i i Beweis: (2))(1) ist klar. fur die p eine lineare Abbildung ist. Wegen der Surjektivitat von p ist die Vektorraumstruktur auf V=W durch die Vektorraumstruktur auf V eindeutig bestimmt. Fur x. 2 7. y 2 M und 0 1 gilt x + (1 )y 2 M. Man nennt V=W den Faktor.Satz 3: Sei X = (X. und x . Dann sind folgende Forderungen an eine Untermenge M X aquivalent: 1. Wegen der Surjektivitat von p folgt aus gp = 0. Bemerkung 1: V=W ist der Quotient von V nach der Aquivalenzrelation a b . Pn = 1. Beweis: Wegen ker(p) = W gilt ker(gp) ker(p) = W. die die Form W + a haben. daher ist die Abbildung (1) wohlde niert. da g = 0. : : :. Die Addition und die Multiplikation sind wie folgt de niert: (W + a) + (W + b) = W + (a + b) (W + a) = W + a fur a. Beweis: O enbar ist p linear. V K-Vektorraume.2 Der Faktorraum V=W nach einem Unterraum De nition 1: Elemente von V=W sind Untermengen von V . wenn p linear ist: (W +a) +(W +b) = p(a) + p(b) = p(a + b) = W + (a + b). Fur 1 . Dann ist L(V=W. a b 2 W. 0.oder Quotientenraum von V nach W. A) j ker(f) W g g 7! gp eine Bijektion (also ein Isomorphismus von Vektorraumen). Falls P x 2 M. b 2 V und 2 K. wobei a 2 V . Sei f ein Element der rechten Seite. 2. : : :. TX. also ist die lineare Abbildung injektiv. 2 Theorem 1: (Homomorphiesatz) Seien A. Die Aquivalenzklassen sind die Untermengen der Form W + a. Auf V=W ist die in De nition 1 beschriebene Vektorraumstruktur die einzige.

Also ist Y=Z ein Unterraum von X=Z.W (x) + pV. also b 2 Y .W ) = X \ W = f0g.Z (i(z)) = pY +Z.Y=Z (pX. Wir bezeichnen p als pV.Y=Z (y + Z) = 0: | {z } 2Y=Z Nach Theorem 1 gibt es genau eine lineare Abbildung . denn sei a 2 Y + Z=Z.W (x). so da das Quadrat kommutiert. Diese Abbildung ist surjektiv. Sei y 2 Y . Dann gibt es b 2 V mit pV.Y=Z (pX. denn fur a 2 (X=Z)=(Y=Z) gibt es b 2 X=Z mit pX=Z. Beweis: 1.Z (d). Also ist die Abbildung injektiv.W (b) = pV.Y . falls weitere Faktorraume auftreten.Y \Z (y)).Z = pX. X pX. z 2 Z mit b = y + z. wobei i : Y ! Y + Z die Inklusion ist. also gilt a = pX.Y=Z pX.Z (y) = (pY. Dann pX=Z. Dann gibt es d 2 Y mit pY. 2 122 . dann gilt: pX=Z.Z (b) 2 ker(pX=Z. Dann gilt 0 = (pY. 2 Satz 2: Sei W V ein Unterraum und sei X V ein Komplementarraum zu W .Y \Z (d)) = pY +Z. Sei a 2 V=W gegeben. Also ist die Abbildung auch surjektiv. da g linear ist und da gp = f a ~ a gilt.W (w) = pV.Z (y + z) = pY +Z.Y \Z = pY +Z. Wenn Z Y . Nach Theorem 1 gibt es genau eine lineare Abbildung : Y=Y \ Z ! Y + Z=Z mit pY. und es gibt y 2 Y . Theorem 2: (Isomorphiesatze) Sei X ein Vektorraum. Sei andererseits c 2 ker( ).Y (c)) = pX=Z.und f(a) = f(~) + f(a a) = f(~). und x 2 X. damit c = 0 und ist injektiv. ist surjektiv. Y.Y (b) = 0.Z i. Also Z + b Y . Dann (pX.Z (c)) = a. Also d 2 Z.Z (b) = a. Dann gibt es b 2 X mit a = pX.Y=Z ) = Y=Z. 1.W V=W ein Isomorphismus.Z (y)) = pX=Z. 2 Bemerkung: ker(p) = W. Der Beweis verlauft analog zu (1): Fur z 2 Y \ Z gilt pY +Z. ! Beweis: Der Kern der Abbildung ist gerade X \ ker(pV.Y (b). O enbar gilt Y=Z = fy + Z j y 2 Y g fx + Z j x 2 X g = X=Z.Y=Z pX.Z i.Y ? y y X=Y ! (X=Z)=(Y=Z) 2. Man pruft nun leicht nach.W .Y \Z (b) = c. Sei andererseits a 2 ker( ). Dann a = pY +Z. Damit ist die Abbildung auch surjektiv. Dann a = pV. Also pX.W (b) = a. w 2 W mit b = x + w.Y=Z (pX.Z (c) = b.Z (z) = 0 wegen z 2 Z. 2.Y \Z = pY +Z.Z (b)) = (pX.Y=Z (b) = a und c 2 X mit pX. so gibt es genau einen Isomorphismus : X=Y ! (X=Z)=(Y=Z) mit pX=Z. also d 2 Y \ Z. Es gibt genau einen Isomorphismus Y=Y \ Z ! Y +Z=Z mit pY. Z X Unterraume. dann gibt es b 2 Y + Z mit pY +Z. Also ist surjektiv. Dann ist X pV.Y (b)) = (a) = 0.Z X=Z ? ! ? ?pX=Z.

^m ) eine Basis des Faktorraumes b b nach Satz 2. sonst Au osung nach der ersten Zeile und Induktionsvoraussetzung. Also sind f und f ~ zueinander inverse Isomorphismen. bn) eine Basis von W. N quadratisch gilt det M N = det(L) det(N).W . Sei ^i = pV. Dieselbe Eigenschaft hat aber auch id X Y .Satz 3: Sei W V ein Unterraum.W (f(w)) = 0. bm ) von V . falls es existiert. so da B(x. dim(V ) < 1. Es gilt 0 Mat B (f) = Mat B0(f jW ) MatX (f) : ^ B ^ Die zweite Aussage (uber die Spuren) ist klar. Dann ist B = (^n+1 . Bemerkung 1: Das Tensorprodukt ist eindeutig bis auf eindeutigen Isomorphismus bestimmt. so bekommen wir eine eindeutige lineare Abbildung f ~ : X Y ! X ~ Y mit f ~ (x y) = x ~ y. so gibt es genau eine lineare Abbildung fB : X Y ! Z. Ebenso zeigt man f ~ f = id X ~ Y . y) = fB (x y) fur alle x 2 X. Seien dazu (X Y. und es gilt ^ det(f) = det(f jW ) det(f) ^ tr (f) = tr(f jW ) + tr (f) Pf (T) = Pf jW (T)Pf^ Beweis: Fur w 2 W gilt pV. Die Aussage uber die charakterischen Polynome folgt (fur unendliche Korper) aus der Aussage uber die Determinanten. Anwendung der Eindeutigkeitsaussage aus der De nition auf Z = X Y und B = ergibt g = id X Y . : : :. ) und (X ~ Y. Erganze zu einer Basis B = ^ b (b1. 2 Beweis des Lemmas: Induktion nach a. Dann gibt es genau einen Endomorphismus f^ von V=W mit pV. Falls a = 0 ist die Behauptung klar. y 2 Y . Dann sind f und f ~ zueinander inverse Isomorphismen. y) 7! x y mit folgender Eigenschaft: wenn Z ein K-Vektorraum und B : X Y ! Z eine bilineare Abbildung ist. In der Tat. Sei B 0 = (b1. Dasselbe Argument mit Vertauschung der Rollen von und ~ ergibt ein eindeutig bestimmtes f : X ~ Y ! X Y mit f (x ~ y) = x y. : : :. g = f f ~ erfullt g(x y) = f (f ~ (x y)) = f (x ~ y) = x y. Wenn wir die Bedingung aus der De nition fur X Y auf die bilineare Abbildung ~ anwenden. 2 8 Tensorprodukte De nition 1: Ein Tensorprodukt zweier K-Vektorraume X. denn bn+1 . Sei f ein Endomorphismus von V mit ^ f(W) W. ) bestehend aus einem K-Vektorraum X Y und einer bilinearen Abbildung : X Y ! X Y. Y ist ein Paar (X Y. : : :.W (bi ). Nach Theorem 1 erhalten wir die Existenz und ^ Eindeutigkeit von f. ~ ) zwei Tensorprodukte von X und Y . 123 . : : :. der Gro e von L. (x. bm ist eine Basis des Komplementarraums. Die Aussage uber die Determinanten folgt aus folgendem L 0 Lemma: Fur L.W f = fpV.

y) = 0. Wegen der Surjektivitat von p folgt fB = f~B . wenn die beiden Faktoren endlichdimensional sind.y) ) = B(x. y0 ) . annuliert 'B alle Vektoren aus ( ).y)2X Y (x. Nach Theorem 7. y)G(x. also ist f~B p = 'B nach der schon bewiesenen Eindeutigkeit von 'B . y) = 'G (f): Sei X Y = V=W. Insbesondere ist X Y endlichdimensional.y) ) = ~ Y X Sei W V der Unterraum.. 1 j n.y) )) = 'B ( (x.j =1 X Y . Wenn ~ fB : X Y ! Z linear ist mit f~B (x y) = B(x. Zu (2): Wir behaupten. 'G linear. y) (x+x0 . Beweis: Zu (1): Sei V die Menge aller Abbildungen f : X Y ! K mit endlichem Trager. da fur beliebige X. gilt x = m i ei und i=1 Pn # f . (x. denn f hat endlichen Trager) leistet das Gewunschte. erzeugt wird: W wird erzeugt von ( ): ( x.1 uber Faktorraume gibt es genau eine lineare Abbildung fB : X Y ! Z mit fB p = 'B . Weil B bilinear ist. y) = 'G ( (x.B. y) = (x0 . y) (x. und fur beliebige Tensorprodukte von X und Y folgt dann derselbe Sachverhalt nach Bemerkung 1. welcher von allen Vektoren. y) 7! (x. y). Dann fB (x y) = fB (p( (x. 2. y).y) von der Bilinearitat messen. 'B ( ( x.y)2X Y f(x. 0 0 supp(f) = f(x. y) f(x. Also 'B jW = 0.y) ) = B(x.y) ) = B(x. y 2 Y g erzeugt wird.y) ). und es gilt dim(X Y ) = dim(X) dim(Y ).y) (x. und sei p : V ! X Y die Projektion auf den Faktorraum. und sei x y = p( (x. Wegen ( ) ist bilinar. In der Tat.y) 2 V .y) ) = G(x. und wenn 'G ( (x. z.y X )2X (x. y)G(x.y) ) = (x. y) B(x. Fur den in (1) konstruierten Raum ist das klar.y) (x.y) (x. y0) = 1 (x.y) (x0 . y) 6= 0g endlich. y) j f(x. y)'G ( (x.y) (x. Y X Y durch fx y j x 2 X. 0 (x. X Y existiert.y0 ) (x. 1 i n.y) (x0 .y) ). (x.y) (x. Sei B : X Y ! Z bilinear und sei 'B : V ! Z die soeben beschriebene Abbildung ('B ( (x. so gibt es genau eine lineare Abbildung 'G : V ! Z mit G(x.y)2X Y f(x.y) ) 'B ( (x. 'G (f) = X ~ (die Summe ist endlich. die die Abweichung der Abbildung X Y ! V .y) ) = B( x.y) (x. so ist (ei fj )m. y) 6= (x y ) Wenn Z ein K-Vektorraum und G : X Y ! Z eine Abbildung ist.Theorem 1: 1. Fur x 2 X. y 2 Y . also y = i=1 j j x y= m X i=1 ! 0X 1 X X m n n @ #j fj A = i #j ei fj 2 W: i ei j =1 i=1 j =1 124 .n eine Basis von i=1 j i. y)). Sei W X Y die lineare Hulle der P Vektoren ei fj 2 X Y . y). so f~B p( (x.y) (x. so gilt ~ X 'G (f) = 'G ( ~ ~ f(x. y). also f~B p = 'B = fB p.y+y0 ) (x.y) ) = 'B ( ( x. Wenn (ei )m und (fj )n=1 Basen von X und Y sind. Sei (x.

W ).j ! 4. Sei Bi. Beispiel 1: Fur eine Raum-Zeit mit Tangentialraum T an einem Punkt sei (ei )4=1 eine Basis von i P T und (ei ) die dazu duale Basis. sei V ein K-Vektorraum. f i.w : V ! W. Dann gibt es li. fi. 125 . W) mit dim(Bild (f)) < 1. Rijkl ! Rijklei ej ek el 2 T T T T . l w 7! fl. y) = li. X (Y Z) ! (X Y ) Z. 3. y) = ei (x)fj (y).j =1 Basis von Y .j (x.j ei ej (Einsteinsche i. (x.j (x y). f i.j ). Fur dim(B) < 1 ist sie ein Isomorphismus. x y 7! y x.j : X Y ! K mit Bi. Dann: li. (X X 0 ) Y ! (X Y ) (X 0 Y ). gilt W = X Y . x0) y 7! (x y. L = C erhalt man (V )C aus i den Ubungsaufgaben.j Summenkonvention). so gibt es genau eine lineare Abbildung V W ! L(V. x (y z) 7! (x y) z. so ist (bi 1)n=1 eine Basis von V K L uber L.l): Daraus folgt die lineare Unabhangigkeit.w (v) = l(v)(w): 2 Diese Abbildung ist injektiv. Wenn (bi )n=1 eine Basis von V (uber K) i ist. Fur K = IR. Dann ist V K L ein L-Vektorraum mit Multiplikation l(V l0 ) = V (ll0 ).j (ek fl ) = Bi.(k.Weil die x y X Y erzeugen.j = fi. x0 y).j ei ej 2 T T . X Y ! Y X. y 2 Y .j (x. x 2 X. Fakt 2: Wenn V und W Vektorraume sind.j ! f i. Beispiel 2: Sei K L eine Korpererweiterung. fl ) = ei (ek )fj (fl ) = ik jl = (i. Beweis der linearen Unabhangigkeit der (ei fj )m.j ei ej 2 T T .4=1 fi. fl. 2. Fakt 1: Es gibt eindeutig bestimmte Isomorphismen mit folgenden Eigenschaften: 1.j (ek .n : Sei (ei )m die zu (ei )m duale Basis von X und (fj )n=1 die zu (fj )n=1 duale i=1 i=1 j j i. und ihr Bild besteht aus allen f 2 L(V.

You're Reading a Free Preview

Herunterladen
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->