Sie sind auf Seite 1von 241

Lineare Algebra und Analytische Geometrie I und II

Vorlesung 2009/10 Prof. Dr. R. Dipper Universit at Stuttgart Institut fu r Algebra und Zahlentheorie

Inhaltsverzeichnis
1 Grundlagen 1.1 Mengen und Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Vollst andige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Analytische Geometrie der Ebene und 2.1 Vektoren in der Ebene und im Raum . 2.2 Die euklidische Ebene . . . . . . . . . 2.3 Der euklidische Raum . . . . . . . . . 2.4 Das vektorielle Produkt . . . . . . . . des Raums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 15 16 23 23 26 29 33 35 35 36 40 40 43 45 47 51 53 56 60 60 64 69 71 74 76 77 83 83 85 90

3 Reelle Vektorr aume 3.1 Der n-dimensionale reelle Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Linearkombinationen und Unterr aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Struktur von Vektorr aumen 4.1 Vektorr aume und Unterr aume . 4.2 Erzeugende . . . . . . . . . . . 4.3 Summen von Unterr aumen . . 4.4 Minimale Erzeugendensysteme 4.5 Basen und Dimension . . . . . 4.6 Unterr aume, Komplemente und 4.7 Faktorr aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . direkte Summen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 Lineare Transformationen 5.1 Grundlagen . . . . . . . . . . . . . . . . . . . 5.2 Matrizen . . . . . . . . . . . . . . . . . . . . . 5.3 Homomorphismen sind selbst Vektoren! . . . 5.4 Komposition linearer Abbildungen . . . . . . 5.5 Endomorphismenringe . . . . . . . . . . . . . 5.6 Automorphismen und invertierbare Matrizen 5.7 Der Rang einer Matrix . . . . . . . . . . . . .

6 Lineare Gleichungssysteme 6.1 Theoretisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Konkretes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Numerisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7 Determinanten: Rechenregeln 7.1 Denition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Eine Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

92 92 94 97

8 Eigenwerte und Eigenvektoren 99 8.1 Sch one Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 8.2 Die charakteristische Gleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 8.3 Direkte Summen und Blockdiagonalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 9 Euklidische und Unit are Vektorr aume 9.1 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . 9.2 Euklidische Vektorr aume: Orthogonale Abbildungen . 9.3 Hauptachsentheorem . . . . . . . . . . . . . . . . . . . 9.4 Unit are Abbildungen und das Hauptachsentheorem f ur 9.5 Hyper achen, Quadriken und quadratische Formen . . . . . . . . . . . . . . . . . normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 110 118 120 123 125

10 Mehr u aume und K orper 130 ber Faktorr 10.1 Die Isomorphies atze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 10.2 Mehr u orper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 ber K 11 Anwendungen 11.1 Lineare Gleichungssysteme . . 11.1.1 Praktisches . . . . . . 11.1.2 Okonomisches . . . . . 11.2 Dierenzialgleichungen . . . . 11.3 Dierenzialgleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 135 135 139 141 146 149 149 153 156 162 165 169 171 172 172 174 178 187 191 196 200

12 Etwas Multilineare Algebra 12.1 Der Dualraum . . . . . . . . . 12.2 Bilinearformen . . . . . . . . . 12.3 Das Tensorprodukt: A First Go 12.4 Symmetrische Gruppen . . . . 12.5 Multilinearformen . . . . . . . 12.6 Determinanten . . . . . . . . . 12.7 Mehr Tensorprodukte . . . . . 13 Die 13.1 13.2 13.3 13.4 13.5 13.6 13.7

Jordansche Normalform Der Satz von Cayley-Hamilton . . . . . . Verallgemeinerte Eigenr aume . . . . . . . Die Jordansche Normalform: Algorithmus Das Minimalpolynom . . . . . . . . . . . . e hoch Matrizen . . . . . . . . . . . . . . . Lineare Schwingungen ohne Reibung . . . Motivation . . . . . . . . . . . . . . . . .

14 Ringe und Moduln 203 14.1 Kommutative Ringe und K Algebren: Setting the Stage . . . . . . . . . . . . . . . . . . . . 203 14.2 Hauptidealringe (HIR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 14.3 Moduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212

15 Moduln u ber Hauptidealringen 15.1 Torsionsmoduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2 Prim arkomponenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.3 Elementarteiler und Prototypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

219 219 221 223

16 Anwendungen 229 16.1 Endlich erzeugte abelsche Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 16.2 Die kanonisch rationale Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

Kapitel 1

Grundlagen
1.1 Mengen und Relationen

Die Sprache der modernen Mathematik ist die Mengenlehre, die auf Georg Cantor (1845-1918) zur uck geht. Sie h angt eng mit der Logik zusammen, auf der mathematisches Denken und Schlieen beruht. Wir m ussen uns auf eine einheitliche Notation und einheitliche Grundbegrie st utzen, damit wir uns verst andigen k onnen. Daher wollen wir hier einige wenige Grundbegrie der Mengenlehre vorstellen und in sp ateren Kapiteln dann, wenn sie gebraucht werden, weiter entwickeln und erg anzen. 1.1-1 Bemerkung: Kurz nach der Einf uhrung der Cantorschen Mengenlehre, um 1900 herum, stellte sich heraus, dass diese zu einem grunds atzlichen Widerspruch f uhrt. Es resultierte die sogenannte Grundlagenkrise der Mathematik, die erst mit der axiomatischen Begr undung der Mengenlehre durch Zermelo und Fraenkel zu einer L osung kam. Darauf hier genauer einzugehen, w urde zu weit f uhren, wir beschr anken uns auf die naive Mengenlehre. 1.1-2 Denition Cantor: Eine Menge M ist eine Zusammenfassung von wohlunterschiedenen Objekten der (mathematischen) Anschauung und des (mathematischen) Denkens. Die Objekte von M werden Elemente genannt. Ist a ein Element der Menge M, so schreiben wir a M und sonst a M. 1.1-3 Beispiele: M N N0 Z Q R C P G K L A

a, b, c Menge der nat urlichen Zahlen 1, 2, 3, . . . Menge der ganzen, nichtnegativen Zahlen 0, 1, 2, 3, . . . Menge der ganzen Zahlen 0, 1, 2, . . . Menge der rationalen Zahlen p 0. Beachte: q mit p, q Z und q 4 . . . ist nur einmal Element von Q 2 Menge der reellen Zahlen Menge der komplexen Zahlen (sp ater) Punkte der Ebene oder Punkte im Raum Geraden der Ebene oder Geraden im Raum , R2 ist rational, ist irrational Q, R, C. Wieviele Elemente hat L? x R 1 x 2
5

2 1

B C y

Punkte der koordinatisierten reellen x, y -Ebene R2 mit ganzzahligen Koordinaten (siehe Abb.) Punkte im R2 innerhalb einer geschlossenen Kurve (siehe Abb.) B C

x Die leere Menge

(oder geschrieben) ist die Menge, die kein Element enth alt.

1.1-4 Denition: Seien A und B Mengen. Wir sagen A ist Teilmenge von B, wenn jedes Element von A auch Element von B ist. In Formeln: x A x B. Beispiel:

1, 2 1, 2, 4

Beachte: Die Implikation Aussage U Aussage V ist nur dann falsch, wenn Aussage U wahr, aber Aussage V falsch ist. Sonst ist sie immer richtig. Diagramm: U w w f f V w f w f U w f w w V f w falsch, wahr

xB Allgemein: Seien A, B Mengen. Ist x irgendein Objekt und x A, so ist die Implikation x A wahr, da x A schon falsch ist, unabh angig davon, ob nun x B oder x B gilt. Ist dagegen x A, und ist x B , so ist x A x B ebenso wahr. Die Beziehung A B , d. h. x A x B sagt nichts u ber Objekte aus, die nicht in A liegen. Diese k onnen oder k onnen nicht Elemente von B sein. Die einzig wirkliche Aussage hier geht u ber die Elemente von A; diese m ussen dann zwangsl aug auch Elemente von B sein. 1.1-5 Wahrheitstafeln Logik: 1. Aussagen sind entweder wahr oder falsch ( tertium non datur, ein Drittes gibt es nicht). 2. Eine Aussage A kann negiert werden: A. Diese Negation ist genau dann wahr, wenn A falsch ist, hat also den entgegengesetzten Wahrheitswert: A w f 6 A f w

Die Aussage Wenn 2 3 ist, dann bin ich der Papst ist ebenso richtig wie die Aussage Wenn 2 3 ist, dann bin ich nicht der Papst oder Wenn 2 3 ist, ist 5 5. Ist A 1, 2 1, 2, 4 B , dann ist die Aussage 3 A 3 B richtig, obwohl 3 A und 3 B falsche Aussagen sind. Aber auch 4A 4 B ist logisch korrekt, obwohl 4 A falsch und 4 B richtig ist. 1 A 1 B ist korrekt, ahnlich ist 2 A 2 B wahr. da 1 A und 1 B beides wahre Aussagen sind, und

3. Sind A, B Aussagen, so ist A B die zusammengesetzte Aussage A und B, die nur dann wahr ist, wenn beide Aussagen A und B wahr sind. A B ( A oder B) ist wahr, wenn mindestens eine der beiden Aussagen A oder B wahr ist. A w w f f B w f w f A w f f f B A w w w f B A w f w w B AB w f f w

B bedeutet A impliziert B, B folgt aus A, Wenn A, dann B, B , falls A (siehe A oben). A  B ist wahr, wenn beide Aussagen A und B denselben Wahrheitswert haben, also wenn A B B A gilt. Man sagt: A ist aquivalent zu B, A und B sind aquivalent, A dann und nur dann, wenn B oder A ist notwendig und hinreichend f ur B. 1.1-6 Probleme: Zeigen Sie: 1. A 2. 3. 4. 5. 6. 7.

A B  A B A B  A B A B  A B A B C  A B A C A B C  A B A C Sei A eine Menge. Dann ist A. A B  B A  B A

B 

1.1-7 Bemerkung: 7. in 1.1-6 besagt: Wenn man A B zeigen will, kann man statt dessen auch B A zeigen. Dies nennt man dann Beweis durch Kontraposition . B zeigen kann, indem man B A zeigt. Diese Form des Beweises Ebenfalls 7. zeigt, dass man A nennt man Widerspruchsbeweis . In der Praxis formuliert man das dann so: Es gelte A. Angenommen, B gilt nicht, dann gilt . . . , und irgenwann ergibt sich ein Widerspruch. Also ist B A falsch, d. h. es gilt B A. 1.1-8 Notation: Mengen k onnen als Listen von Elementen gegeben sein, wie in M a, b, c, auch 1, 2, 3, . . ., oder sie k onnen durch Eigenschaften, genauer Ausals unendliche Liste wie etwa in N sageformen beschrieben werden. Dabei ist eine Aussageform eine Aussage mit Parametern, d. h. sie involviert Variablen x, y, . . . so, dass sie zur (mathematischen) Aussage wird, sobald man die Variablen durch konkrete Objekte ersetzt. Beispiel: x ist gr oer als 5 ist eine Aussage f ur reelle Zahlen x, d. h. setzt man f ur x irgendeine reelle Zahl ein, so wird x ist gr oer als 5 zur Aussage, f ur x 3 etwa ist 3 5 falsch und f ur x 7 ist 7 5 wahr. Normalerweise bildet man Mengen, indem man aus einer Grundmenge durch eine Aussageform Elemente oer als 5 sind. aussondert, z. B. ist x R x 5 die Menge aller reellen Zahlen, die gr

Beispiel: gerade ganze Zahlen 2k k Z m Z l Z : m 2l Abk urzung f ur Es gibt  Abk urzung f ur F ur alle Abstrakt: Sei eine Aussageform gegeben durch Ax, y, . . ., durch x M Ax ist dann eine Menge gegeben (zun achst mit einer Variablen x, sp ater mit mehr Variablen) 7

Veranschaulichung von Mengen als geometrische Objekte 1.1-9 Denition: Seien A, B, . . . Mengen. a B . Wir schreiben dann A B , bzw. A B , falls 1. A ist Teilmenge von B , falls gilt: a A B ein Element enth alt, das nicht in A enthalten ist. In diesem Fall sagen wir, dass A eine echte Teilmenge von B ist. 2. A B x x A und x B ist der Durchschnitt von A und B . 3. A B x x A oder x B ist die Vereinigung von A und B . 4. AB x A x B (wobei B A nicht vorausgesetzt wird) ist die Dierenzmenge von B in A. 5. P A B B A ist die Potenzmenge von A.

B A B A B A A B

A A B

A AB

1.1-10 Problem: Seien A, B, C Mengen. Zeigen Sie: 1. A

C Der Durchschnitt von Mengen ist distributiv u ber der Vereinigung. BC

C B A A

C B A AC AB

A A (B C )

A
8

2. A

B
C

A C Die Vereinigung von Mengen ist distributiv u ber dem Durchschnitt.


C AC B A A AB (A B ) (A C )

B A

A BC

3. Was ist P , P P , P P P , usw. ? Wieviele Elemente hat P P . . . P (die i-te Potenzmenge)? 4. A 5. A 6. A 7. A 8. A A f ur alle Mengen A B B A

A

B und B C B A A B B

A C

B und B A, A B, B

9. Sei Am Aussageform u ber einer Grundmenge M, und sei N (a) (b)

m N : Am  m N : m N : Am  m N :

Am Am

M. Dann gilt:

(a) sagt: Will man zeigen, dass eine bestimmte Aussage nicht f ur alle Elemente der Menge N zutrit, muss man nur ein Gegenbeispiel nden. (b) Will man zeigen, dass es in N kein Element gibt, sodass f ur dieses die Aussage zutrit, so muss man die Aussage f ur alle Elemente von N falsizieren. 1.1-11 Denition: Das kartesische Produkt zweier Mengen M, N ist die Menge aller geordneten Paare m, n mit m M und n N und wird mit M N bezeichnet:

m, n m M, n N . ur m M und n N mengentheoretisch wie folgt deniert: Dabei wird das geordnete Paar m, n f m, n m, m, n .
N M N

MN

M Z. B. kann man R2 R R durch die x, y -Ebene darstellen:

Vorsicht: A B wenn a b ist!

A und f ur a, b A sind die Paare a, b und b, a in A A nur dann gleich,

1.1-12 Indizes Informelle Einf uhrung: Man kann Elemente, Mengen, . . . mit Indizes versehen, um sie zu unterscheiden, z. B. R2 1 , 2 i R, i 1, 2. Oder seien A1 , A2 , . . . , An Mengen (n N), dann ist
n i 1

Ai

A1 A2 An

1 , 2 , . . . , n Ai i I

Ai f ur i

1 , . . . , n

Allgemeiner: Sei I eine Indexmenge, i I sei Ai Menge

i I

Ai

ai iI

ai

i I

Ai Ai

ai iI ist Familie von I -Folgen, sp ater mehr dazu x x Ai i I x


i I : x Ai

i I

1.1-13 Denition zweistellige Relationen: Sei A eine Menge. Eine Teilmenge R A A des kartesischen Produkts von A mit sich selbst heit zweistellige Relation auf A. Oft schreiben wir aRb oder a R b (oder auch andere Symbolen statt R ) anstatt a, b R. Zum Beispiel ist eine Relation auf R, die Ordnungsrelation . So ist R R:

, R2

und wir schreiben dann tats achlich . Relation ist ein sehr allgemeiner Begri. Darunter fallen Ordnungsrelationen, Aquivalenzrelationen und Funktionen (verallgemeinerte Relationen). 1.1-14 Denition: Sei A eine Menge. Eine Relation R 1. 2. 3. a a) (Reexivit at )

a A : a, a R (d. h. die Diagonale a, a AA ist in R enthalten, oder anders geschrieben:


(Transitivit at ).

A A heit Aquivalenzrelation , falls gilt:

a, b A gilt: a, b R b, a R (a R b b R a) (Symmetrie ) Seien a, b, c A, und sei a, b R und b, c R. Dann ist a, c R (a

b, b

c)

10

1.1-15 Probleme: Folgende Relationen sind Aquivalenzrelationen: : R a, b A A a, b A : a b 2. A Punkte der reellen Ebene, f ur P, Q A sei dP, Q der Abstand der beiden Punkte (dP, Q 0 f ur P Q). Sei O der Ursprung der Ebene. Deniere P Q (f ur P, Q A), wenn dO, P dO, Q ist. 1. Gleichheit 3. Auf Z denieren wir eine Relation
3

durch: F ur a, b Z ist a

b, wenn b a durch 3 teilbar ist. A. Dann ist die Aqui-

1.1-16 Denition: Sei eine Aquivalenzrelation auf der Menge A, und sei a valenzklasse a deniert als a b A b a Beachte: Wegen a a (Reexivit at) ist immer a a.

1.1-17 Lemma: Sei A eine Menge,  a b, und in diesem Fall ist a

Aquivalenzrelation auf A und seien a, b A. Dann ist a b.

Also: Aquivalenzklassen sind entweder disjunkt , d. h. besitzen kein gemeinsames Element, oder sie fallen zusammen. 1.1-18 : Allgemein gilt: Sind A, B Mengen, dann ist A B

A

B und B

A.

ur jedes i I . A heit disjunkte 1.1-19 Denition: Sei I Indexmenge, A Menge und sei Ai A f Vereinigung der Ai bzw. das System Ai i I von Teilmengen Ai von A heit Partition von A, falls gilt: 1. A 2. Ai

i I

Ai

i j I

Aj

Ai Aj

Ubung: Zeigen Sie, dass 2. aquivalent ist zu:

i

j f ur i, j

I a
a

auf der Menge A, und eine Aquivalenzrelation 1.1-20 Satz: Sei Aquivalenzklassen auf A. Dann bilden diese eine Partition von A.

sei die Menge der

Vorsicht: Die Liste a a A ist redundant. Ist b a, aber b a, so ist b a, d. h. diese c, c A Aquivalenzklasse ist ein Element von c c A, das in der Liste der Aquivalenzklassen mehrfach (mindestens zweimal f ur c a und f ur c b) auftaucht, aber in c c A nur einmal als Element gez ahlt wird! Umgekehrt: 1.1-21 Satz: Sei A

i I

Ai eine Partition von A. Deniere a a

b f ur a, b A durch

b  i I : a Ai und b Ai

Dann ist

eine Aquivalenzrelation und die Aquivalenzklassen sind genau die Ai .

11

1.1-22 Denition: Sei A eine Menge. Eine Relation R A A auf A heit (teilweise) Ordnung bzw. A ist durch R (teilweise) geordnet, falls gilt (mit a, b, c, . . . A): 1. a, a R f ur alle a A (Reexivit at ) (a a a A) 2. a, b R und b, a R  a 3. a, b R und b, c R

a, c R (Transitivit at ) (a

b (Antisymmetrie ) (a

b und b b und b

aa c

b) c)

Bezeichnung: Meist verwendet man f ur eine Ordnungsrelation auf einer Menge das Symbol oder ahnliche Symbole wie oder , etc., schreibt also anstatt a, b R einfach a b bzw. a b oder a b. usw. Ist in einer teilweise geordneten Menge A mit Ordnung a b und a b, so schreibt man a b und sagt a ist echt kleiner als b. 1.1-23 Beispiele: 1. Sei A , so wird durch a 2. Ist A mit Ordnung gengesetzte Ordnung, deniert. N, Z, Q oder R. F ur a, b A setze a b  b a N0 b

b

a eine neue Ordnung, die zu

entge-

3. A

N. Seien a, b A. Durch a b  a ist Teiler von b wird eine teilweise Ordnung

anken von 4. Sei A Menge mit teilweiser Ordnung . Durch Einschr Teilmenge B von A zur teilweise geordneten Menge. 5. Sei M Menge, A Mengeninklusion

deniert. auf B wird jede nichtleere

P M die Potenzmenge von M. Dann ist ist A teilweise geordnet durch die ,d. h. f ur X, Y A (d. h. X, Y M) ist X Y  X Y .

1.1-24 Bemerkung: F ur M 0, . . . , 4 sieht die Ordnungrelation auf P M folgendermassen aus (die Ordnung kann man durch einen Graphen veranschaulichen, ein Strich von oben nach unten besagt, dass die untere Menge in der oberen enthalten ist.): 1. M 2. M

, M a, M

0: P M

. So ist einziges Element von P M. 1: P M , a:


{a} |

3. M

a, b, M

2: P M

, a, b, a, b:
{a, b} {a} {b}

Man sieht, dass die Ordnung nicht mehr linear ist. 4. M

a, b, c, M

3:

12

{a, b, c} {a, b} {a} {a, c} {b} 4: {a, b, c, d} {b, c} {c}

5. M

a, b, c, d, M

{a, b, c}

{a, b, d}

{a, c, d}

{b, c, d}

{a, b}

{a, c}

{b, c}

{a, d}

{b, d}

{c, d}

{a}

{b}

{c}

{d }

Beachte: P P P . . . So l asst sich aus dem Nichts das Universum der endlichen Mengen erschaen. 1.1-25 Denition: 1. Sei A mit der Relation teilweise geordnete Menge. Die Ordnung heit linear (oder totale Ordnung ) und A heit linear geordnete Menge, wenn gilt:

P P P

, , , , ,

 a, b A ist a
2. Ist A mit teilweise geordnet, B

b oder b

a,

d. h. je zwei Elemente von A sind vergleichbar. In Beispiel 5. in 1.1-23 ist dies z. B. nicht der Fall, falls M mehr als ein Element hat. c B und c A. Dann heit b B minimales Element von B , falls gilt: b c b c c B

d. h. es gibt in B keine kleineren Elemente als b. b heit kleinstes Element von B , falls b gilt. (Analog: maximale Elemente von B , gr ote Elemente ). 13

3. Sei A mit teilweise geordnet, B A. Ein Element a a b ist f ur alle b B . (Analog: obere Schranke ).

A heit untere Schranke von B , falls

1.1-26 Problem: Zeigen Sie: Eine Teilmenge B einer teilweise geordneten Menge A kann mehrere minimale Elemente haben. Diese sind dann nicht vergleichbar, d. h. sind b, c B minimal und b c, so ist weder b c noch c b. Hat B jedoch ein kleinstes Element b, so ist dieses minimal und b ist das einzige minimale Element von B . Es kann aber durchaus passieren, dass B genau ein minimales Element besitzt, dieses aber nicht das kleinste Element von B ist. Klar ist auch, dass B immer minimale Elemente besitzt, wenn B selbst nur endlich viele Elemente hat und nichtleer ist. teilweise geordnet. Dann ist eine Wohlordnung und A ist 1.1-27 Denition: Sei A durch wohlgeordnet , falls jede nichtleere Teilmenge von A ein kleinstes Element besitzt. 1.1-28 Beispiel: Sei M a, b, c, d, e, g, h, x und eine Ordnung auf M (und auf ihren Teilmengen A und B ) deniert durch den Graphen: b A c e a d g

B M selbst hat zwei minimale Elemente (h und x) und kein kleinstes Element, aber ein gr otes Element (b). A c, a, e, f hat je zwei minimale und maximale Elemente. B a, e, f, h hat kein gr otes und ein kleinstes (h) Element. a und f sind maximale Elemente von B . M ist nicht wohlgeordnet. 1.1-29 Denition: Eine Menge A heit endlich , falls sie nur endlich viele Elemente besitzt, sonst unendlich . 1.1-30 Beispiele/Probleme: 1. Jede teilweise geordnete endliche nichtleere Menge A besitzt minimale und maximale Elemente. Ist A endlich und linear geordnet, so besitzt es ein kleinstes und ein gr otes Element. 2. Jede Wohlordnung auf A ist eine Totalordnung. 3. N mit der gew ohnlichen Ordnung 5. Z, 4. R mit gew ohnlicher Ordnung (a b  b a N0 ) ist wohlgeordnet. ist nicht wohlgeordnet.

6. M bzgl. der dazu entgegengesetzten Ordnung.

ist nicht wohlgeordnet. ZN z Z z 0 ist nicht wohlgeordnet bzgl. der gew ohnlichen Ordnung

, aber

14

1.1-31 Wohlordnungssatz Axiom: Jede Menge l asst sich wohlordnen. ohnliche Ordnung auf den reellen Zahlen R ist keine Wohlordnung. In 1.1-32 Bemerkung: Die gew der Tat handelt es sich in 1.1-31 um ein echtes Axiom , d. h. man kann es den Axiomen der Mengenlehre hinzuf ugen oder auch sein Gegenteil ( Es gibt Mengen, die sich nicht wohlordnen lassen): In beiden F allen wird man keinen Widerspruch zu den Axiomen der Mengenlehre erzeugen k onnen. Was bedeutet es, wenn man z. B. R wohlordnen kann, etwa durch ? Dann hat nach Denition R ein kleinstes Element, etwa x R. Als n achstes w urde man das kleinste onnte auf diese Element y von Rx nehmen, dann das kleinste Element z von Rx, y usw. Man k Weise die Elemente von R diskret, nach ihrer linearen Ordnung auisten. Die Tatsache, dass wir es hier mit einem Axiom , nicht mit einem beweisbaren Satz zu tun haben, impliziert nun insbesondere, dass wir dies auf keinen Fall konkret tun k onnen, dass wir aber keinen Fehler machen, wenn wir so tun, als k onnten wir es! Der Wohlordnungssatz ist aquivalent zu folgenden Aussagen: 1. Auswahlaxiom: Sei A I Indexmenge ein System von nichtleeren Mengen. Dann kann man (simultan) aus jedem A I ein Element ausw ahlen, genauer: Es gibt eine Auswahlfunktion A , die jedem I ein x A zuordnet. von I in
I

2. Zornsches Lemma: Sei M durch teilweise geordnet. Eine Kette in M ist eine Teilmenge K so, dass eingeschr ankt auf K die Menge K zur linear geordneten Teilmenge macht. Die Aussage des Zornschen Lemma ist nun: Ist M und besitzt jede Kette K in M eine obere Schranke in M, so hat M selbst maximale Elemente. Wohlordnungssatz, Auswahlaxiom und Zornsches Lemma sind aquivalent, d. h. sie gelten entweder alle drei zugleich, oder keines von ihnen gilt. Am Auswahlaxiom sieht man aber, dass man dieses Tripelaxiom wohl besser als wahr voraussetzt. Sonst w urde man allnaselang u ber Kollektionen von Mengensystemen stolpern, bei denen man nicht Elemente aus den einzelnen Mengen des Systems ausw ahlen kann. Aber wieder: Man kann dies i. A. nicht konkret tun, man macht nur keinen Fehler, wenn man so tut, als k onne man es.

1.2

Vollst andige Induktion

Die vollst andige Induktion ist ein Beweisverfahren, das oft zur Anwendung kommt. Im Prinzip funktioniert es f ur jede wohlgeordnete Menge, wir beschr anken uns hier aber auf den Fall der nat urlichen Zahlen N mit der nat urlichen Wohlordnung . Vorgelegt sei eine Aussageform An in der Variablen n N. Wir wollen untersuchen, ob An eine wahre Aussage ist f ur jede Einsetzung einer nat urlichen Zahl m N, d. h. wir vermuten

m N

Am ist wahre Aussage

Um so etwas zu beweisen, geht man folgendermaen vor: uber dem Grundbereich N. Wenn gilt: 1.2-1 Satz: Sei An Aussageform in der Variablen n Induktionsschluss Dann ist m N Am ist wahre Aussage N. Die Aussage An in 2. nennt man Induktionsannahmeoder Induktionsvoraussetzung. 2. An 1. A1 ist wahr. An 1 Induktionsanfang

15

1.2-2 Beispiele/Probleme: 1.
n i 1

1 2 3 n 1 n

n 1 n
2

An

2. Sei M x1 , . . . , xn Menge mit genau n Elementen x1 , . . . , xn . Dann hat M 2n viele Teilmengen. (d. h. P M hat genau 2n viele Elemente.) 1.2-3 Bemerkung: 1. Oft benutzt man als Induktionsannahme nicht nur An, sondern mehrere der Am mit m d. h. man schliet: (b) A1 (a) A1 ist wahr. A2 ... An An 1 n 1,

2. Induktionsanfang kann manchmal eine andere nat urliche oder sogar eine negative Zahl sein. Man schliet: Gilt

Z. (b) An0 An0 1 . . . Am 1 Am f ur n0 ur alle k Z mit k n0 . dann ist Ak richtig f


(a) Ai0 ist wahr. (b) F ur m i0 gilt: Aj wahr j m

ur die ganze Zahl n0 (a) An0 ist richtig f

m Z,

3. Ist I wohlgeordnete Menge mit kleinstem Element i0 und gilt Am ist wahr.

Dann ist Ak wahr f ur alle k

I.

1.3

Abbildungen

Der Begri der Relation l asst sich erweitern: Sind A und B Mengen, so ist eine Relation zwischen Elementen von A und Elementen von B eine Teilmenge R A B . Abbildungen sind nun solche Relationen mit zus atzlichen, besonderen Eigenschaften: 1.3-1 Denition: Seien A, B Mengen. Eine Abbildung f (auch Funktion , Operator ) von A nach B ist eine Teilmenge des kartesischen Produkts A B : f mit folgenden Eigenschaften: 1. AB

a A b B : a, b f (Jedes Element von A wird in ein Element von B abgebildet.) 2. Sind b, c B und a A mit a, b f und a, c f , so ist b c. ( Ein Element a A wird auf genau ein Element von B abgebildet, nicht auf zwei oder mehr)
f

B oder A B und anstatt a, b f schreiben wir f : a b, b f a Wir schreiben dann: f : A (oder b af oder b af oder b f a etc.) Die Teilmenge f a, f a A B a A von A B wird auch Graph der Abbildung f genannt. Visualisierung: Wir k onnen Abbildungen durch Bilder visualisieren:

16

1. Durch den Graphen: B

(s, t) t im f

s1 s2 s3 Die rote Linie ist der Graph. In diesem Fall gilt f s1 im f B ist auf der B -Achse markiert. 2. Durch Pfeildiagramme:

s f s 2

A f s3 und f s

t. Das Bild

A keine Abbildung

A Abbildung A

B B

Das Pfeildiagramm in der ersten Abbildung ist keine Abbildung, denn es gibt Punkte in A, von denen keine Pfeile ausgehen, und ein Punkt, von dem zwei Pfeile ausgehen. In der zweiten Abbildung geht von jedem Punkt in A genau ein Pfeil aus, dieses Pfeildiagramm steht f ur eine Abbildung von A nach B . onnen auf verschiedene Weisen festgelegt Abbildungen, als Teilmengen des kartesischen Produkts A B k werden: 1. Mengenlisten

a1 , f a1 , a2 , f a2 , . . . (klappt bei endlichen Mengen A ganz gut!)

2. Als Mengen durch eine denierende Aussageform: ur f a oder allgemeiner: Aussageform f ur f a f a, b A B a A, Formel f 1.3-2 Beispiele: 1. Die Liste ist

a, r, b, u, c, t, d, t, e, u deniert eine Abbildung, das zugeh orige Pfeildiagramm


a b c d e A 17 t u B r s

2. f : R 3. g : R

R:x R:x

x2 , d. h. f x sin x

x2

y sin x

x x2
Graph von sin x

x
4. g : R Graph von x2 R gegeben durch g x 1 0 wenn x rational ist wenn x irrational ist x Z.

(Zeichnung des Graphen ist nicht m oglich.) 5. F : Z Z:x 2x, so ist F

x, 2x Z Z

1.3-3 Anmerkung: Viele Abbildungen lassen sich weder durch eine Liste noch durch eine denierende Formel/ Aussageform/ Eigenschaften beschreiben. Klar ist: Ist A endliche Menge, B beliebige Menge, so l asst sich im Prinzip jede Abbildung von A nach B durch eine Liste angeben (in der Praxis, wenn A so um die 1025 Elemente hat, d urfte auch dies schwerfallen!). Ist B jedoch unendlich, wird man die Gesamtheit aller solcher Abbildungslisten jedoch auch nicht auisten k onnen, eine solche Liste w are unendlich. Sind jedoch A und B endliche Mengen, so kann man im Prinzip alle Abbildungen von A nach B durch Listen auisten (direkt als Teilmengen von A B ). Nun denke man aber an die Menge der Abbildungen von R nach R. Keine kann man als Liste geben, und nur in ganz wenigen Ausnahmen durch eine Formel oder Aussageform, etc. Die allermeisten derartigen Funktionen werden wild, d. h. nicht beschreibbar sein. Und doch macht es, wie wir sp ater sehen werden, Sinn, etwa von der Menge der Abbildungen von R nach R zu sprechen, selbst wenn die weitaus u berwiegende Mehrzahl der Elemente dieser Menge konkret nicht beschreibbar ist! B, g : A B Abbildungen. So ist f g dann und nur 1.3-4 Beachte: Seien A, B Mengen, f : A dann, wenn die beiden Teilmengen f und g von A B gleich sind, d. h. wenn f a g a f ur alle a A gilt. 1.3-5 Denitionen: Seien A, B Mengen und f : A B sei Abbildung. Dann heit A der Denitionsa A : b f a f a a A heit Bild von f . Man bereich von f , und die Teilmenge b B bezeichnet diese Menge mit im f f a a A, und f ur a A heit f a das Bild von a unter f

18

(Bild=image). Ist X A, so denieren wir die Einschr ankung f X von f auf X als die Abbildung von X nach B , die einem x X das Bild f x zuordnet (also f X x, b X B A B x X x, b f ). Klar ist, dass im f X f x x X im f f a a A ist. im f X f X heit auch Bild der Teilmenge X von A unter der Abbildung f . 1.3-6 Bemerkung: 1. f und f X unterscheiden sich also durch ihren Denitionsbereich (im ersten Fall A, im zweiten Fall X ) und m oglicherweise durch ihr Bild; im f X kann echte Teilmenge von im f sein. Ist f durch eine Zuordnungsvorschrift gegeben (etwa f x x2 ), so bleibt diese nat urlich unber uhrt. 2. In der Literatur wird die Unterscheidung nach Denitionsbereich oft unterdr uckt. So spricht man 1 aug als Abbildung von den reellen in die reelle R:x z. B. von der Funktion f : R0 x h Zahlen, obwohl der Denitionsbereich nur R0 ist. 1.3-7 Denition: Sei f : A B Abbildung. Die Umkehrrelation von f ist gegeben durch f 1 b, a B A a, b f b, a B A f a b. Ist U B , so ist f 1U a A f a U eine Teilmenge von A, das volle Urbild von U unter f . F ur U b (b B ) schreiben wir auch f 1b 1 statt f b.

Beachte: f 1 ist in der Regel keine Abbildung, da weder jedes b B als erste Komponente in einem Paar von f 1 vorkommen muss, noch f ur ein b B nur ein a A als zweite Komponente in Paaren b, a f 1 vorkommen muss. (Kommen alle b als erste Komponente vor, spricht man auch gelegentlich von einer vieldeutigen Funktion) 1.3-8 Denition: Seien A, B, C Mengen, f : A B, g : B C Abbildungen. Die Hintereinanderausf uhrung (Komposition) g f gf von f und g ist deniert durch: gf :A C:a g f a C. (Diese Abbildung ist deniert, denn f ur jedes a A ist f a B und daher kann die Abbildung g auf f a B angewandt werden, um ein Element aus C zu erhalten.) gf

f A f B g C

gf 1.3-9 Beispiel: A B C R, f x x2 , g x

B sin x, dann ist gf x

C sin x2 und f g x sin2 x.

Beachte: Abbildungen k onnen nur dann verkn upft werden, wenn der Wertebereich der zweiten Funktion (hier f ) im Denitionsbereich der ersten (hier g ) enthalten ist.

19

1.3-10 Denition: Sei f : A

B Abbildung. f b, so ist a b. ( An jedem Element von B

1. f ist injektiv , falls gilt: Sind a, b A und ist f a kommt h ochstens ein Abbildungspfeil an.)

2. f ist surjektiv , falls gilt: F ur alle b B gibt es ein a A mit f a kommt mindestens ein Abbildungspfeil an.)

b. ( An jedem Element von B

A 3. f ist bijektiv , wenn f injektiv und surjektiv ist. f

A 4. Eine bijektive Abbildung f : A

A nennt man Permutation von A.

Wenn f nicht injektiv ist, ist f 1 keine Abbildung, da es Punkte in B gibt, von denen mehrere Pfeile ausgehen:

f 1

A B B A Ist f nicht surjektiv, dann ist f 1 keine Abbildung, da es Punkte in B gibt, von denen keine Pfeile ausgehen:

20

f 1

A 1.3-11 Probleme: Sei f : A

B B Abbildung.

1. f ist injektiv  f 1 : im f A ist Abbildung. Diese ist dann surjektiv und injektiv, d. h. bijektiv. 2. f ist surjektiv

 im f

B. A:a a a

1.3-12 Denition: Sei A Menge. Die Abbildung g : A wird mit idA bezeichnet.

A heit Identit at auf A und

1.3-13 Lemma: Sei f : A B Abbildung. Dann ist idB f eine Eins f ur die Komposition von Abbildungen.

idA . Die Identit at wirkt so wie

B Abbildung. Dann ist f bijektiv genau dann, wenn es eine Abbildung 1.3-14 Satz: Sei f : A g:B A gibt mit f g idB und g f idA . Die Abbildung g ist dann eindeutig bestimmt und ist mit der Umkehrrelation nach Denition 1.3-7 identisch. Sie heit Umkehrabbildung und wird mit f 1 bezeichnet. Sie ist ebenfalls bijektiv. f f 1

A 1.3-15 Probleme:

B, h : B C Abbildungen mit h injektiv. Ist h f 2. Seien f, g : A Abbildungen kann man links k urzen). 3. Seien f, g : A B, h : C A Abbildungen mit h surjektiv. Ist f

1. Die Komposition von injektiven, (surjektiven, bijektiven) Abbildungen ist injektiv (surjektiv, bijektiv). h g , so ist f g (Injektive g.

g h, so ist f

achtigkeit M von M ist wie folgt deniert: 1.3-16 Denition: Sei M Menge. Die M 1. Gibt es eine Bijektion zwischen M und 1, . . . , n 2. Gibt es eine Bijektion zwischen M und N, so ist M N, so ist M n und M ist endliche Menge. 0 ).

abz ahlbar unendlich (

3. Ist M nicht endlich und gibt es keine Bijektion zwischen M und N, so ist M u ahlbar. berabz

21

1.3-17 Bemerkungen: 1. F ur eine abz ahlbare Menge M kann man die Elemente von M auisten: M w ahle nur eine Bijektion f : N M und setze mi f i f ur i N.

m1 , m2 , . . .. Man

2. Ist I eine Menge, so ist eine Familie von mathematischen Objekten mit Indexmenge I eine Ab dieser mathematischen Objekte . Man bezeichnet dann f i Ai dieser bildung f : I mathematischen Objekte und schreibt anstatt f einfach Ai iI . Zum Beispiel ist eine Folge i iN 1 , 2 , . . . eine Abbildung N R : i i R. 3. Auf der Klasse aller Mengen (diese kann selbst keine Menge sein, infolge der Erkenntnisse aus der Grundlagenkrise) kann man eine Aquivalenzrelation denieren durch A B  f : A B mit f bijektiv. Die Aquivalenzklassen bilden die Kardinalit aten oder M achtigkeiten , n N und abz ahlbar sind solche, u ahlbar wird weiter aufgef achert. berabz 1.3-18 Satz: 1. Z und Q sind abz ahlbar. 2. Die Vereinigung abz ahlbar vieler abz ahlbarer Mengen ist abz ahlbar. 3. R und C sind u ahlbar. berabz P M 4. Ist M Menge, so ist M 1.3-19 Bemerkung: 4. in Satz 1.3-18 zeigt, dass es nicht nur zwei Qualit aten von Unendlich gibt, n amlich abz ahlbar und u ahlbar, sondern eine ganze (undendliche) Hierarchie von unendlich. Die berabz B injektive Abbildung, so kann Kardinalit aten sind geordnet, man wei n amlich, dass gilt: Ist A eine Injektion von B A nur dann existieren, wenn A B ist, also eine Bijektion zwischen A und N dann und nur dann, wenn eine injektive Abbildung B existiert. Daraus folgt, dass durch M von M nach N existiert, auf den Kardinalit aten eine (teilweise) Ordnung deniert wird. Man kann nun ein Universum aus dem Nichts aufbauen: Man startet mit der leeren Menge , deren Potenzmenge N0 P (mit N0 1) und deniert induktiv Ni P Ni1 ( N1 , , N2 , , , , , usw. und N A1 A1 abz ahlbar. Nun kann i 0 Ni mit N aten der Teilmengen der Ni man mit A2 P A1 fortfahren, usw. Betrachtet man dazuhin die Kardinalit und Ai , so erh alt man unter anderem die nat urlichen Zahlen und z. B. die Kardinalit aten der Mengen zwischen Q und R. Nun kommt die Uberraschung: Gibt es Kardinalit aten echt zwischen N und R ? Die Antwort ist merkw urdig: Man kann annehmen, dass es zwischen N und R keine weiteren gibt (Kontinuumshypothese), ohne einen Widerspruch zu erzeugen. Man kann aber auch annehmen, dass dazwischen noch mindestens eine weitere Kardinalit at existiert, ohne einen Widerspruch zu erzeugen. Das heit, die Kontinuumshypothese ( Zwischen abz ahlbar und u ahlbar gibt es keine weiteren berabz Kardinalit aten) ist ein echtes Axiom (G odel und Cohen), (unter der Voraussetzung, dass die Axiome der Mengelehre widerspruchsfrei sind). Nimmt man das Auswahlaxiom als wahr an, so folgt, dass die Kardinalit aten mit obiger Ordnung linear geordnet sind.

22

Kapitel 2

Analytische Geometrie der Ebene und des Raums


2.1 Vektoren in der Ebene und im Raum

Viele physikalische Gr oen besitzen nicht nur einen Betrag, sondern auch eine Richtung. 2.1-1 Beispiel Physikalische Vektorgr oen: 1. Kraft 2. Geschwindigkeit 3. Beschleunigung Derartige Gr oen k onnen zusammengesetzt werden: Wirken z. B. zwei Kr afte auf einen K orper ein, so addieren sich deren Betr age zur resultierenden Gesamtkraft nur dann, wenn beide Kr afte in dieselbe Richtung wirken. Ist dies nicht der Fall, so hat die resultierende Gesamtkraft einen echt kleineren Betrag als die Summe der Betr age der Einzelkr afte. ordliche Richtung, Desweiteren sind solche Vektorgr oen frei beweglich: F ahrt ein Auto mit 50 kmh in n so ist es gleichg ultig f ur seine Geschwindigkeit, ob es in Stuttgart oder in Hamburg startet. Vektorgr oen werden durch einen Pfeil in der Ebene oder im Raum dargestellt. Dabei gibt die Pfeilrichtung die Richtung , seine L ange den Betrag der Kraft, Geschwindigkeit, Beschleunigung etc. an. Pfeile derselben L ange und Richtung, die sich nur durch ihren Anfangspunkt unterscheiden, repr asentieren denselben Vektor. Dies wollen wir nun etwas pr aziser erfassen. Wir starten mit der Ebene E2 (Raum E3 ) als Menge von E2 oder E3 . Wir bezeichnen Punkte von E mit A, B, . . . und Geraden mit Punkten. Wir setzen E g, h, . . .. 2.1-2 Bezeichnung: dA, B Abstand der Punkte A und B A, B Verbindungsgerade durch A und B g, h sind parallel , falls sie in einer Ebene liegen und keinen Punkt gemeinsam haben oder gleich sind AB ist die gerichtete Strecke mit Anfangspunkt A und Endpunkt B

23

2.1-3 Denition: Die gerichteten Strecken AB und CD heien verschiebungsgleich , falls es eine Parallelverschiebung ( Translation) gibt, die A in C und B in D u uhrt. berf

Translation (Parallelverschiebung) C

B A 2.1-4 Problem: Die Relation verschiebungsgleich sein ist eine Aquivalenzrelation auf der Menge der gerichteten Strecken in E2 (bzw. E3 ). 2.1-5 Denition: Die Aquivalenzklassen der Relation verschiebungsgleich sein auf der Menge der gerichteten Strecken in E2 (bzw. E3 ) heien Vektoren . Ist AB eine gerichtete Strecke, so wird die Aquivalenzklasse AB CD CD und AB sind verschiebungsgleich mit AB , oder schlicht mit a bezeichnet, wenn man keinen Wert auf den Repr asentanten AB von AB legt. Wir xieren nun einen Punkt O von E (Ursprung). Ist a ein Vektor, so gibt es genau einen Punkt P E so, dass OP a ist; denn ist a AB und die eindeutige Translation, die A in den Ursprung O von E u uhrt, so ist P B . berf P B a a A O a AB = OP a

Klar ist, dass ein Vektor a durch seine Richtung und seine L ange eindeutig festgelegt ist. Dabei ist die L ange a des Vektors a AB durch dA, B deniert. Man u berzeugt sich leicht, dass dA, B dC, D ist, falls AB und CD verschiebungsgleich sind und daher a AB CD ist. Die Menge der Vektoren in E wird im folgenden mit V bezeichnet. 2.1-6 Denition: 1. Sei A Punkt von E . Dann ist o AA AA der Nullvektor . Er hat L ange 0, und es ist o f ur alle B E . Die zugeh orige Translation ist die identische Abbildung idE . BB

2. Sein a, b V , so erkl aren wir die Summe a b V wie folgt: W ahle O E und A, C E so, dass a OA und b AC ist. Wir denieren: a b OC V . (Dies ist die Parallelogrammregel: Wir heften a an den Ursprung, und b an den Endpunkt von a an. Dann spannen a und b ein Parallelogramm auf, dessen Diagonale a b ist.)

24

a B a+b b A O a b

2.1-7 Satz: Die Addition geometrischer Vektoren in E erf ullt folgende Rechenregeln: V 1 V 2 V 3 V 4 Wir schreiben

a, b, c V o V : a V a V a V : a, b V

a b c ao a a ab

a b c oa a o ba

(Assoziativit at) (Nullelement) (additives Inverses) (Kommutativit at)

a f ur das additive Inverse, es gilt: Ist a

AB , so ist

BA.

2.1-8 Ausblick: Die Rechenregeln V 1 bis V 3 in 2.1-7 werden die abstrakten Axiome f ur eine Gruppe , nimmt man die Kommutativit at V 4 hinzu, erh alt man eine abelsche Gruppe . ange 2.1-9 Denition skalare Multiplikation: Seien R, a V . Dann ist a V der Vektor, der L a hat und der dieselbe (entgegengesetzte) Richtung wie a hat, wenn 0 (bzw. 0) ist. Ist 0, so ist a 0 a o, der Nullvektor. a 2a 0, 5a

2.1-10 Satz: Die in 2.1-9 denierte skalare Multiplikation erf ullt die folgenden Rechenregeln: V 5 V 6 V 7 V 8

a V 1a , R, a V a , R, a V a  R, a, b V
a b

a a a
a b

(skalare Assoziativit at) (skalare Multiplikation ist distributiv uber der Addition von Skalaren)

1 R operiert wie die Identit at

ur einen 2.1-11 Ausblick: Die Rechenregeln V 1 bis V 8 in 2.1-7 und 2.1-10 ergeben die Axiome f abstrakten (reellen) Vektorraum. Mit anderen Worten: Hat man eine Menge V zusammen mit einer Addition : V V V : a, b a b V und einer skalaren Multiplikation R V V : , a a gegeben, sodass die Rechengesetze V 1 bis V 8 gelten, so spricht man von V als reellem Vektorraum. In den Axiomen V 1 bis V 8 kommen die Begrie L ange (Betrag) und Richtung von Vektoren nicht mehr vor, die braucht man f ur den Vektorraum der geometrischen Vektoren in E2 bzw. E3 nur, um Addition und skalare Multiplikation zu denieren. Diese k onnen f ur andere Vektorr aume aber ganz anders deniert 25

sein, wir werden sehen, dass z. B. die Menge der reellen Polynome, die stetigen reellen Funktionen, also ganz andere Strukturen, Vektorr aume bilden. Basisdarstellung: W ahle f ur E E2 n1 , n2 V so, dass n1 n2  R ist. f ur E E3 n1 , n2 , n3 V so, dass ni nj nk , R und i, j, k D. h. n1 , n2 bzw. n1 , n2 , n3 liegen auf keiner Geraden bzw. Ebenen E . Es gilt: 1. E E2 : Sei a V , dann gibt es eindeutig bestimmte , R so, dass a n2 a n2 n1 n2 ist.

1, 2, 3 ist.

n1 2. E

n1

E3 : Sei a V , dann gibt es eindeutig bestimmte , ,

R so, dass a

n1 n2 n3 ist.

Beachte: F ur E2 braucht man wirklich 2 und f ur E3 3 Vektoren, um 1. bzw. 2. zu bekommen. 2 ist f ur E2 , und 3 f ur E3 die Dimension von V . 2.1-12 Vorschau: Jeder Vektorraum V hat eine Basis. Die Anzahl der Elemente einer solchen Basis h angt nur von V ab, und heit Dimension von V und wird mit dim V bezeichnet (dim V n N ). 2.1-13 Bezeichnung: 1. , wie oben heien Komponenten von a bzgl. Basis n1 , n2 . Hat man eine feste Basis gew ahlt, schreibt man oft a , . 2. F ur E E3 schreibt man analog: a

, , .

2.2

Die euklidische Ebene


b OB Vektoren in E2 ,

Seien o a OA und o OA und OB . 2.2-1 Denition:

OA, OB sei der Winkel zwischen den Strecken

ab ist das Skalarprodukt von a und b.

a b cos R

26

2.2-2 F ur a S 1 S 2 S 3 S 4 S 5

Beachte: Das Skalarprodukt V V R ist Abbildung, die i. A. nicht assoziativ ist: abc o oder b o gilt ab 0. F ur a, b, b V und R gelten die folgenden Rechenregeln: ab ba a b b a b a b ab ab ab aa a2 0 f ur a 0 Seien a OA und b OB von o verschieden. Dann ist ab 0  OA und OB sind senkrecht zueinander. Wir schreiben dann: a b Auerdem gilt: 1. o a a V a a cos 0 2. aa a 2.

abc.

2.2-3 Vorschau: S 1 bis S 5 werden als Axiome auf reellen Vektorr aumen eine Geometrie denieren, die L angen- und Winkelmessung erm oglicht. Denition 2.2-1 wird dann z. B. die Denition f ur cos und aa gesetzt wird. somit zum Winkel zwischen zwei Vektoren a und b, w ahrend a 2.2-4 Bemerkung: 1. Sind o n1 , n2 V mit n1 n2 , dann ist B n1 , n2 eine Basis von V , eine Orthogonalbasis . Ist n2 1, so heit B Orthonormalbasis von V (kurz ONB). dar uberhinaus n1

2. Ist n1 , n2 ONB, a

3.

a1 , a2 , b b1 , b2 bzgl. dieser Basis, so ist ab a1 b 1 a2 b 2 . 2 Unter den Voraussetzungen wie in 2. gilt a aa a2 1 a2 x


a b R.

2.2-5 Denition: Seien a, b V . Die Gerade g durch a in Richtung von b ist die Menge

x = a + b

a O b

b g x

Beachte: g geht durch den Ursprung  a und b sind kollinear (bzw. linear abh angig ), d. h. bilden keine ahlt werden. Basis von V . In diesem Fall kann sogar a o gew Sei n1 , n2 eine Basis von E2 , a x1 , y1 , b x2 , y2 bzgl. dieser Basis. Die Parameterdarstellung von g ist gegeben durch g x, y V x x1 x2 , y y1 y2 , R. 27

Seien nun x1 x1 , y1 x2 x2 , y2 zwei Vektoren in V . Sei die Gerade durch die Punkte P1 und P2 mit x1 OP1 und x2 g die Gerade durch x1 und x2 g P2 x2

OP2

x1 x2 P1

O x1

Dann ist g Gerade durch x1 in Richtung x1 x2 ( P2 P1 !). Die Parameterdarstellung dieser Gerade ist also g x, y V x x1 x1 x2 , y y1 y1 y2 , R. Eliminiert man in den beiden Gleichungen x x1 x1 x2 und y die Gleichung y y1 y1 y2 x x1 x1 x2

y1 y1 y2 , so erh alt man

Sei nun zus atzlich n1 , n2 ONB von V und O ein fest gew ahlter Punkt von E2 . Ist x x, y xn1 yn2 OP , so sagen wir, P hat die Koordinaten x, y (bzgl. O und n1 , n2 ) und schreiben P x, y . Die Gerade g durch x1 und x2 war gegeben durch g

x1 x1 x2 R, ax1 by1

Sei a ein Vektor senkrecht zu x1 x2 , dann gilt also ax ax by ax1 x1 x2 ax1 d

und d ist unabh angig von dem gew ahlten x auf der Geraden. So erh alt man die Hessesche Normalform von g ax by xa d oder

d, wobei a

a, b ist.

28

x1 x2

x1

|x| cos |a| = 1

n2 O Ist zus atzlich a 1, so ist d

n1

x2 x

ax

a x cos

a, x

x cos

a, x

x cos ,

daher ist d der Abstand des Ursprungs O von g : Sonst ist d der Abstand des Ursprungs von g multipliziert mit a . 2.2-6 Satz: Zu jeder Geraden g in E2 existieren a, b, d R, sodass g P x, y E2 ax by d ist, wobei a, b 0, 0 ist. Die Konstanten a, b, d sind durch g bis auf einen gemeinsamen Faktor bestimmt. Ist a2 b2 1, so ist d der Abstand von g zum U rspung , sonst ist d a2 b2 multipliziert mit dem Abstand von g zum Ursprung. 2.2-7 Korollar: Ist ax by der Abstand des Punktes P d Hessesche Normalform der Gerade g mit a2 b2 e 1, dann ist

x0 , y0 von g.

ax0 by0 d

2.2-8 Satz: Der Schnittpunkt P

y, x zweier Geraden g1 , g2 mit den Geradengleichungen g1 : a1 x b1 y d1 g2 : a2 x b2 y d2

ist die L osungsgesamtheit dieses Gleichungssystems, falls L osungen existieren. Sonst sind g1 und g2 parallel.

2.3

Der euklidische Raum

Ahnlich wie im letzten Abschnitt l asst sich im E3 ebenfalls ein Skalarprodukt denieren, die Ergebnisse des letzten Abschnitts gelten gr otenteils auch f ur E3 . Seien o a OA und o b OB Vektoren in OA, OB sei der Winkel zwischen den Strecken OA und OB . Dann ist das Skalarprodukt von E2 , a und b deniert durch ab a b cos Das Skalarprodukt f ur E3 erf ullt die Rechenregeln und Eigenschaften aus 2.2-2. 29

2.3-1 Bemerkung:

1. Sind o n1 , n2 , n3 V mit n1 n2 , n1 n3 und n2 n3 , dann ist B n1 , n2 , n3 eine Basis von n2 n3 1, so heit B Orthonormalbasis von V , eine Orthogonalbasis . Ist dar uberhinaus n1 V (kurz ONB). 2. Ist n1 , n2 , n3 ONB, a

3.

a1 , a2 , a3 , b b1 , b2, b3 bzgl. dieser Basis, so ist ab a1 b 1 a2 b 2 a3 b 3 . 2 2 Unter den Voraussetzungen wie in 2. gilt a aa a2 1 a2 a3 x
a b R.

2.3-2 Denition: Seien a, b V . Die Gerade g durch a in Richtung von b ist die Menge Sei n1 , n2 , n3 eine Basis von E3 , a stellung von g ist dann gegeben durch g

x1 , y1 , z1 , b x2 , y2 , z2 bzgl. dieser Basis. Die Parameterdarx1 x2 , y y1 y2 , z z1 z2 , R.

Sind zwei verschiedene Punkte P1 und P2 in E3 gegeben, und x1 OP1 x1 , y1 , z1 , x2 OP2 x2 , y2 , z2 , dann ist die Gerade durch P1 und P2 (bzw. durch x1 und x2 ) gegeben durch x x1 x1 x2 R g x x, y, z V x x1 x1 x2 , y y1 y1 y2 , z z1 z1 z2 , R.

x, y V

2.3-3 Denition/Lemma: Seien x1 , x2 , x 1 , x2


zwei Geraden. Dann sind g und g parallel y g g : x : x

c R : x1 x2

x1 x1 x2 x 1 x1 x2

und

cx 1 x2 .
g

x1 x2 g x2 x1 x 1 O x 2
x 1 x2

z 30

Beachte: Sind g und g Geraden in E3 , dann bekommt man den Schnittpunkt von g und g , indem man das folgende lineare Gleichungssystem l ost: x y z x y z x1 x1 x2 y1 y1 y2

z1 z1 z2 x 1 x1 x2

y y y1 1 2 z1 z1 z2

Dies ist ein System mit 6 Gleichungen in den 5 Unbekannten x, y, z, , . Es gibt nun verschiedene M oglichkeiten: 1. Es gibt eine eindeutige L osung x0 g.

x0 , y0 , z0 , P0 mit x0

OP0 ist der Schnittpunkt von g und

2. g und g sind parallel (keine L osung, c R : x1 x2 g (System hat mehr als eine L osung.)

3. g und g sind nicht parallel und schneiden sich nicht. Sie sind windschief . (x1 spannen eine Ebene auf, keine L osung) 4. g

cx 1 x2 ).

x2 und x1 x2

2.3-4 Denition: Gegeben seien drei Punkte Pi xi , yi, zi, OP i xi , f ur i 1, 2, 3, die nicht auf einer Geraden g E3 liegen. Dann ist die Ebene e durch x1 , x2 , x3 (bzw. durch P1 , P2 , P3 ) gegeben durch

x V x x1 x1 x2 x1 x3 , , R. Die Vektoren x1 x2 und x1 x3 heien Richtungsvektoren . Ist x e, so sagen wir x liegt auf e.
e y

e x3 x1 x3

x1 O

x1 x2 x2 x

31

Die Parameterdarstellung von e ist gegeben durch


x, y, z

x V y z

x1 x1 x2 x1 x3 y1 y1 y2 y1 y3 , , R . z1 z1 z2 z1 z3

e ist die Ebene durch x1 in Richtung von x1 x2 und x1 x3 .

Beachte: Die Richtungsvektoren sind Vektoren der Ebene e  O liegt auf e. Sind e und e zwei Ebenen in E3 durch xi (i 1, 2, 3) bzw. durch x 1, 2, 3), dann liefert die Berechi (, i nung von e e ein lineares Gleichungssystem mit 6 Gleichungen in den Unbekannten x, y, z, , , , . Dann ist oder eine Gerade , dann sind e und e parallel, e e oder e e e e

2.3-5 Satz: 1. Zwei verschiedene Ebenen schneiden sich entweder in einer Geraden oder gar nicht. 2. e und e sind parallel

r1 , r2 , s1 , s2 x1 x3 x1 x2

R:

r1 x 1 x2 r2 x1 x3

s1 x 1 x2 s2 x1 x3

 die Richtungsvektoren von e und e spannen dieselbe Ebene auf.


3. O

e 

x1 , x2 Linearkombinationen von x1 und x2 x1 x2 , R  F ur alle nicht kollinearen Vektoren x1 , x2 e gilt e x1 , x2 .


x1 , x2 e : ax by cz

e:e

Beachte: e ist in Parameterform durch 3 lineare Gleichungen in 5 Unbestimmten gegeben, durch Elimination der Parameter und erh alt man die Gleichung der Ebenen: d

Geometrische Interpretation: Sei n1 , n2 , n3 eine ONB von V . W ahle a a, b, c so, dass a x1 x2 osen des linearen Gleichungssystems und a x1 x3 ist. Dies geschieht durch L ax1 x2 by1 y2 cz1 z2 ax1 x3 by1 y3 cz1 z3 0 0,

dies sind (homogene) Gleichungen in den 3 Unbekannten a, b, c, die L osung ist die Gerade orthogonal zu e. Sei x e, etwa x x1 0 x1 x2 0 x1 x3 , dann gilt ax ax1 0 ax1 x2 0 ax1 x3 ax1 d Ist daher x x, y, z e, so ist x, y, z L osung einer linearen Gleichung ax by cz d. Ist umgekehrt d, so ist x, y, z e, da die L osungsgesamtheit dieser Gleichung eine Ebene ist, die ax by cz x1 , x2 und x3 enth alt. a, b, c, d ist durch die Ebene e bis auf Faktoren r 0 eindeutig bestimmt, d. h. ra, rb, rc, rd beschreiben dieselbe Ebene. Ist a 1 a2 b2 c2 , so ist d der Abstand der Ebene e zum Ursprung O.

32

O a

|d|

e x1 x3 x1 x2

2.4
2.4-1

Das vektorielle Produkt

Sei wieder n1 , n2 , n3 eine ONB, a, b V mit a

a1 , a2 , a3 und b b1 , b2 , b3 . Denition: Das Vektorprodukt a b von a und b ist der Vektor c c1 , c2 , c3 V a2 b 3 a3 b 2 c1 c2 a3 b 1 a1 b 3 a1 b 2 a2 b 1 . c3 R. Dann gilt:

mit

2.4-2 Satz: Seien a, b, c, d V und r 1. a b 2. 3. 4. 5. 6. 7. 8. 9.

b a , a b c a c b c ra b ra b a rb a b o  a b oder b a f ur ein R) aa b 0 ba b ab c bc a ca b ( Spatprodukt) a b c acb abc ( Grassmannscher Entwicklungssatz) a b c b c a c a b o ( Lagrangescher Vertauschungssatz) a bc d acbd adbc (Lagrangesche Identit at)

2.4-3 Satz: Seien a, b V mit a o b. Dann ist a b V ein Vektor senkrecht zu a und zu b, sodass a, b, a b ein Rechtssystem bilden, falls n1 , n2 , n3 ein solches bilden, und sodass gilt ab a b sin a, b, wobei a, b der (gerichtete) Winkel zwischen a und b ist. So ist a b der Fl acheninhalt des von a und b aufgespannten Parallelogramms. 33

ab b a 2.4-4 Anwendung: Sei die Ebene e mit Richtungsvektoren x1 x2 und x1 x3 in Parameterform gegeben: e x V x x1 x1 x2 x1 x3 , , R. Dann ist a ist

h = |b| sin

x1 x2 x1 x3 Normalenvektor der Ebene, und die Hessesche Normalform der Ebene


e : xa x1 a

Geometrisch: Nimmt man auf e ein Parallelogramm und verbindet man eine Ecke mit dem Ursprung, so ist das Volumen des entstehenden Parallelachs unabh angig von der Lage dieses Eckpunkts auf e.

34

Kapitel 3

Reelle Vektorr aume


3.1 Der n-dimensionale reelle Raum

3.1-1 Denition: Sei n N. Die Elemente des n-dimensionalen reellen Vektorraums Rn sind die geordneten n-Tupel von reellen Zahlen: Rn : Insbesondere ist
n

v 1 , . . . , n

R, i

1 , . . . , n . i .

1 , . . . , n 1 , . . . , n

i 1, . . . , n : i

Auf dem R erkl art man eine Addition durch

1 , . . . , n 1 , . . . , n 1 1 , . . . , n n ,
ur i wobei i , i R ist f ist deniert durch: 1, . . . , n. Die skalare Multiplikation von Vektoren v v 1 , . . . , n

Rn mit reellen Zahlen

1 , . . . , n .

3.1-2 Satz: Seien u, v, w, . . . Rn , , , . . . R. 1. Die Addition im Rn ist (a) assoziativ, d.h. u v w u v w. (b) kommutativ, d.h. u v v u.

0, . . . , 0 ist der einzige Vektor im Rn , sodass v 0 v 0 v ist f ur alle 2. Der 0-Vektor 0 n vR . 3. F ur jeden Vektor v Rn gibt es einen Vektor u Rn , sodass v u 0 ist. Dieser Vektor h angt von v ab, ist f ur festes v eindeutig bestimmt und wird mit v bezeichnet. 4. F ur die skalare Multiplikation gilt:
(a) (b) (c) (d) (e) (f )

v v (skalare Assoziativit at), u v u v (skalare Distributivit at), v v v (vektorielle Distributivit at), 1v v, 0 v 0 und 1 v v.
35

3.1-3 Bemerkung: Wir haben auf dem Rn bisher keine Geometrie, d. h. keine Abstandsfunktion eingef uhrt. Wie f ur die reelle Ebene und den reellen Raum kann man das aber machen. F ur viele Fragen der linearen Algebra braucht man aber keine Geometrie, d. h. dies ist eine zus atzliche Struktur. Zus atzlich wollen wir die reellen Zahlen etwa durch komplexe oder ganz andere Zahlenbereiche (genannt K orper ) ersetzen, wo man eine solche Zusatzstruktur nur noch in sehr eingeschr anktem Mae zur Verf ugung hat. Auf dem Rn werden wir sp ater jedoch eine Geometrie einf uhren und untersuchen. Der Rn zusammen mit dieser Zusatzstruktur wird dann Euklidscher Vektorraum genannt.

3.2

Linearkombinationen und Unterr aume

3.2-1 Denition: Sei V Rn und sei v V . Die Elemente der Menge v Vielfache von v . Wir schreiben auch Rv v R . 3.2-2 Problem: 1. Gibt es , R, sodass 4, 0 0, 5

R heien skalare

12, 10

3. Jetzt nehme man f ur dasselbe Problem 1, 2 und

2. Was ist, wenn man im vorigen Problem die beiden Vektoren 4, 0 und 0, 5 durch drei Vektoren 1, 1, 2, 1 und 3, 2 ersetzt und nun drei Skalare sucht, um 12, 10 als Linearkombination dieser drei Vektoren zu schreiben. Wie eindeutig sind diese?

ist? Sind und eindeutig bestimmt?

2, 8.

3.2-3 Denition: Sei V Rn f ur eine nat urliche Zahl n, und sei Linearkombination von T ist ein Ausdruck der Form 1 v1 2 v2 k vk , wobei vi Elemente von T , die i reelle Zahlen sind, i

T eine Teilmenge von V . Eine

1, . . . , k , und k

N ist.

3.2-4 Bemerkung: In obiger Denition kann T durchaus unendlich sein! Eine Summe von skalaren Vielfachen von Elementen von T kann aber nur endlich viele Elemente von T involvieren, da wir keine unendlichen Summen deniert haben. 3.2-5 Denition: Seien V und T V wie oben. Die Menge aller Linearkombinationen von T heit Linearer Aufspann von T und wird mit T bezeichnet. So ist

T
Ist T

k i 1

i vi i

R, vi T, i

1, . . . , k, k

v1 , v2 , . . . , vk so schreiben wir auch T v1 , v2 , . . . , vk anstatt v1 , v2 , . . . , vk .

36

3.2-6 Bemerkung: Beachte, dass die Denition der Vielfachen eines Vektors gerade ein Spezialfall des linearen Aufspanns ist: Man nehme T v in Denition 3.2-3 und erh alt v Rv . Wir wollen aber nun die algebraischen Eigenschaften von solchen (und allgemeineren) Teilmengen reeller Vektorr aume studieren. 3.2-7 Satz: Sei T eine nichtleere Teilmenge des Rn und U 1. F ur u, v U ist u v U . 2. F ur u U und R ist u U .

T . Dann gilt:

Man sagt: Die Teilmenge U ist abgeschlossen bez uglich der Addition und der skalaren Multiplikation. 3.2-8 Beispiel: Sei V 1. Sei u 2. Ist u R3 .

1, 0, 0 und v 0, 1, 0. Dann ist u, v die reelle Ebene R2 , oder? 1, 1, 1 und v 1, 2, 0, so sieht U u, v ebenfalls genau wie eine Ebene aus, oder?

Nun ist U aus obigem Beispiel sicher nicht von der Form Rirgendwas . So liegt es nahe, dass unsere Einschr ankung, als Vektorr aume nur die der Form Rn zuzulassen, sicher zu eng war. 3.2-9 Denition: Eine bin are Operation auf einer Menge M ist eine Abbildung B : M M M. Sie wird gew ohnlich mit einem Symbol , etc. bezeichnet, das zwischen die Argumente der Funktion geschrieben wird, z. B. B m1 , m2 m1 m2 . uber R) ist eine Menge 3.2-10 Denition: Ein reeller Vektorraum (oder R-Vektorraum , Vektorraum V mit den folgenden Eigenschaften: Auf V ist eine assoziative und kommutative bin are Operation , genannt Addition , deniert, sodass gilt: Es gibt ein Element v0 V , sodass u v0 v0 u u ist f ur alle u V . Dieses Element heit Nullelement oder Nullvektor und wird mit 0 bezeichnet. F ur jedes u V gibt es ein u V , sodass u u 0 ist. Man bezeichnet u mit u und nennt es das additive Inverse von u. Es gibt eine Abbildung RV V : , u u u

 R , u V

gegeben, die die skalare Assoziativit at und die skalare und vektorielle Distributivit at von 3.1-2 erf ullt. Es ist 1 u u f ur alle u V . Als Folgerung erh alt man nun sofort aus der Denition: 3.2-11 Korollar: 1. Nullvektor und inverse Elemente bez uglich der Addition sind eindeutig. 2. F ur alle u V gilt 0 u 4. F ur alle u V gilt 3. F ur alle R gilt 0 0. 0.

1u u.

37

3.2-12 Denition Abelsche Gruppen: Eine Menge A zusammen mit einer bin aren kommutativen und assoziativen Operation heit abelsche Gruppe , falls ein Nullelement und zu jedem a A ein Inverses a existiert. (So erf ullt A die Bedingungen 1.) bis 3.) von Satz 3.1-2). Der norwegische Mathematiker Niels Henrik Abel (1802-1829) hat abelsche Gruppen als erster untersucht und dazu benutzt zu beweisen, dass die allgemeine Gleichung an xn an1 xn1 . . . a1 x a0 n-ten Grades f ur n 3.2-13 Beispiel Abelsche Gruppen: 1. Die ganzen Zahlen Z mit der Addition bilden eine abelsche Gruppe. 3. Die von 0 verschiedenen rationalen Zahlen Q bzgl. der Multiplikation. 4. Die komplexen Zahlen C bzgl. der Addition. 5. Die Menge der Translationen der Ebene bez uglich der Hintereinanderausf uhrung von Abbildungen. 6. Sei z 2. Die rationalen Zahlen Q bez uglich der Addition. 0

5 keine allgemeine L osung in Form von rationalen Operationen und Wurzeln besitzt.

Z fest gew ahlt. F ur f ur m Z sei m a Z

ma

kz k Z .

F ur denieren wir m n

m m Z m n. Dann ist Zz bzgl. eine abelsche Gruppe.

m, n Zz

3.2-14 Problem: Warum ist die leere Menge keine abelsche Gruppe? Welche Axiome sind verletzt, welche nicht? Zur uck zu Vektorr aumen. Die Einschr ankung auf reelle Vektorr aume ist sicherlich ebenfalls zu eng. Wir wollen auch komplexe und rationale Vektorr aume zulassen. Solche Zahlbereiche nennt man K orper. So sind Q und C Beispiele von K orpern. Hier ist eine formale Denition: 3.2-15 Denition K orper: Eine nichtleere Menge K mit zwei bin aren Operationen und heit K orper, falls K bez uglich der Addition eine abelsche Gruppe mit Nullelement 0 ist, die Menge K K 0 der von 0 verschiedenen Elemente von K eine abelsche Gruppe bez uglich der Multiplikation bildet und die Multiplikation distributiv u ber der Addition ist. Beispiele von K orpern sind R, Q und C. 3.2-16 Problem: 1. Ist Z ein K orper? 2. Die Menge Rx der rationalen Funktionen von R in sich ist mit der u blichen Addition und Multiplikation von Funktionen ein K orper.

3. Die Menge Q 2 aller reellen Zahlen der Form 2, , Q mit der u blichen Addition und Multiplikation reeller Zahlen ist ein K orper. Welche K orperaxiome muss man checken, welche nicht?

38

3.2-17 Bemerkung: Man beachte, dass bei multiplikativer Schreibweise das Nullelement durch das asst man Einselement ersetzt wird (geschrieben als 1 oder oft auch e) und das Inverse v durch v 1 . L bei der Denition abelscher Gruppen die Forderung der Kommutativit at fallen, so spricht man einfach von einer Gruppe . Als Beispiel f ur eine nichtkommutative Gruppe nehme man etwa die Menge der invertierbaren stetigen Abbildungen der reellen Zahlen in sich mit der Hintereinanderausf uhrung als bin are Operation. Abelsche Gruppen werden oft, aber nicht immer additiv geschrieben. Nichtkommutative Gruppen werden in der Regel multiplikativ geschrieben. Das Null- bzw. Einselement einer Gruppe wird auch neutrales Element genannt und mit e bezeichnet. Eine Menge mit zwei bin aren Operationen, die alle K orperaxiome bis auf die Kommutativit at der Multiplikation erf ullen, heit Schiefk orper oder Divisionsring . Will man betonen, dass die Multiplikation kommutativ ist, spricht man von einem kommutativen K orper . orper, , 3.2-18 Problem: Sei K K nicht. 1. 0 2. 3. 4.

K . Welche der folgenden Aussagen gilt immer und welche

1 . (Wie verh alt sich die additive Inverse der Eins unter Multiplikation?) . (Wie verhalten sich additive Inverse unter der Multiplikation?) alt sich die Eins unter Addition?) 1 1 0. (Wie verh
0 , so ist 0.

0. (Wie verh alt sich das neutrale Element bzgl. der Addition unter Multiplikation?)

5. Ist

ur einen K orper K das additive und das multiplikative 3.2-19 Bemerkung: Kann es passieren, dass f neutrale Element zusammenfallen, also 0 1 ist? Das w are sicher nicht im Sinne des Ernders! Hier ist eine legalistische Au osung des Problems: Eines der K orperaxiome besagt, dass K K 0 eine Gruppe ist, mit neutralem Element 1. Ist aber 0 1, so w are K und 1 k onnte nicht Element von K sein. K 0 K 1

39

Kapitel 4

Struktur von Vektorr aumen


4.1 Vektorr aume und Unterr aume

Wir k onnen nun die allgemeine (und endg ultige) Denition eines Vektorraums geben: orper. Ein Vektorraum u 4.1-1 Denition: Sei K ein K ber K oder K -Vektorraum ist eine Menge V mit einer bin aren Operation : V V V und einer Abbildung K V V 1 V 2 V 3 V 4 V 5 V 6 V 7 V 8 V : , v v

 K, v V
(Assoziativit at) (Nullelement) (additives Inverses) (Kommutativit at) 1 K operiert wie die Identit at (skalare Assoziativit at)

genannt skalare Multiplikation , die die folgenden Axiome erf ullt:

u, v, w V 0 V : v V v V v V : u, v V v V , K, v V , K, v V  K, u, v V

u v w v0 v v uv 1v v v u v

u v w 0v v 0 v v vu v v v v u v

F ur das additive Inverse v nach V 3 schreiben wir auch v . Um hervorzuheben, dass 0 das neutrale Element der Addition des Vektorraums V ist, schreibt man 0V . Die Axiome V 1 bis V 4 besagen, dass V eine abelsche Gruppe ist. Korollar 3.2-11 gilt nun analog f ur beliebige Vektorr aume. Hier sind einige Beispiele von Vektorr aumen: 4.1-2 Beispiele: 1. Rn und analog Qn , Cn , sowie K n f ur jeden K orper K . 2. Die Menge RR der Abbildungen von R in sich, mit der gew ohnlichen Addition zweier Abbildungen gegeben durch f g :R R: f g f, g RR und der gew ohnlichen skalaren Multiplikation gegeben durch f : R R: f

 R , f R R .

3. Analog K K f ur einen beliebigen K orper K . 40

4. Ein K orper K ist auch ein K -Vektorraum mit Addition und skalarer Multiplikation gegeben durch die bin aren Operationen in K . 4.1-3 Problem: Welche der denierenden Axiome eines Vektorraums sind in den folgenden Beispielen nicht erf ullt: 1. Der Vektorraum V sei die abelsche Gruppe R2 , mit neuer skalarer Multiplikation:

: R R2
2. K sei ein K orper, V

R2 : , v

2 v .

3. Sei K R und V Multiplikation durch:

K 2 , mit neuer skalarer Multiplikation : K K 2 K 2 : , , , , 0 . R R 0. Wir denieren eine Addition auf V


u v uv und u u

und eine skalare

f ur positive reelle Zahlen u, v und beliebige reelle Zahlen . 4. V K C mit gew ohnlicher Addition und skalarer Multiplikation v f ur v, C. 4.1-4 Denition: Sei V ein Vektorraum u orper K . Eine nichtleere Teilmenge U von V heit ber einem K Unterraum von V , wenn U bez uglich der Addition und skalaren Multiplikation selbst ein Vektorraum ist. Wir schreiben dann U V bzw. U V , falls U zus atzlich eine echte Teilmenge von V ist, d. h. U V gilt. Hier sind einige Beispiele von Unterr aumen: 4.1-5 Beispiele: 1. 0 Rev

0 und V

sind immer Unterr aume eines Vektorraumes V .

2. Die in Beispiel 3.2-8 aufgef uhrten Mengen sind Unterr aume des R3 . 3. Die reellen Zahlen R sind ein Q-Vektorraum, wenn man die Multiplikation reeller Zahlen vergisst und eine reelle Zahl nur mit einer rationalen multipliziert. Q ist dann ein Q-Unterraum von R. 4. Sei K ein Unterk orper des K orpers L. Dann ist L ein K -Vektorraum und K ein K -Unterraum von L. 5. Die Teilmenge der stetigen (dierenzierbaren, rationalen) Funktionen in RR . orper. K x sei die Menge der formalen Ausdr ucke der Form 4.1-6 Denition: Sei K ein K f x
n i 0

i xi

mit Koezienten i K f ur i 1, . . . , n. f x nennt man Polynom . Zwei Polynome sind genau dann gleich, wenn alle Koezienten u bereinstimmen (mit der Konvention n1 n2 . . . 0). Beachte: Ist f x
n i 0

i xi ein Polynom und m 41

n, dann ist f

m i 0

i xi mit i

0 f ur i

n.

K x wird zum K -Vektorraum durch

f gx f x
f ur R, f Ist f x setzt man deg f 1. Die Teilmenge Kn x raum von K x.
n n i i i 0 i x , g i 0 i x . n i i 0 i x ein Polynom mit n

n i 0 n i 0

i i xi i xi
deg f den Grad von f . F ur f 0

0, dann nennt man n

n i 0

i xi

0 , . . . , n

K der Polynome vom Grad

n bildet einen Unter-

4.1-7 Bemerkung: Man beachte, dass es einen Unterschied zwischen Polynomen und polynomialen n i K von der Form f x Funktionen gibt. Eine polynomiale Funktion ist eine Funktion f : K i 0 i x . Nat urlich kann man jedem Polynom eine polynomiale Funktion zuordnen (d. h. es gibt eine (surjektive!) Abbildung von K x in die Menge der polynomialen Funktionen, die einem Polynom die entsprechende Funktion zuordnet). Es ist aber nicht selbstverst andlich, dass diese Abbildung injektiv ist, d. h. dass je zwei verschiedene Polynome zu verschiedenen polynomialen Funktionen f uhren. In der Tat gibt es K orper, f ur die dies nicht der Fall ist. 4.1-8 Problem: Rx kann mit dem Raum der polynomialen Funktionen von R nach R identiziert werden. Warum? Von nun an ist K immer ein K orper und V ein K -Vektorraum. 4.1-9 Satz: Sei U eine nichtleere Teilmenge von V . Dann ist U genau dann ein Unterraum von V , wenn gilt: 1. Sind u, v U , so ist auch u v U . 2. Ist K und v U , so ist v U . Oenbar sind diese beiden Bedingungen aquivalent zu u v

Minus ist der folgende: Statt Untervektorr aume von Vektorr aumen kann man auch Untergruppen von Gruppen betrachten, und eine Untergruppe ist dann eine nichtleere Teilmenge der Gruppe, f ur die die erste Bedingung gilt (oder eventuell eine multiplikative Version davon). Wie in 3.2-5 l asst sich f ur eine nichtleere Teilmenge T V der lineare Aufspann T als

U f ur alle , K, u, v U . urlich auch durch u v U Bemerkung: In der ersten Bedingung k onnte man u v U nat ersetzen, denn die zweite Bedingung garantiert, dass mit v auch v 1v U ist. Der Grund f ur das

k i 1

i vi i

K, vi T

denieren. Dieselben Argumente wie im Beweis von Satz 3.2-7 zeigen das folgende Korollar: 4.1-10 Korollar: Sei

V . Dann ist T ein Unterraum von V .

42

4.1-11 Problem: 1. Im folgenden sind Teilmengen U von C3 gegeben. Welche sind C-Unterr aume von C3 , wenn U aus ur die gilt: solchen Vektoren , , besteht, f (a) (b) (c) (d) (e) 0, 0, R.

1, 0,

2. Sei M die Teilmenge der Polynome p von Rx, f ur die gilt: (a) (b) (c) (d) p hat Grad 3, 2p0 p1, px 0 x 0, 1, px p1 x x R.

In welchen F allen ist M ein R-Unterraum von Rx? 3. Durchschnitt und Vereinigung: (a) Ist der Durchschnitt zweier, endlich vieler, beliebig vieler Unterr aume wieder eine Unterraum? (b) Was ist mit der mengentheoretischen Vereinigung?

4.2

Erzeugende

Von nun an sei K stets ein K orper und V ein K -Vektorraum.

1, 1, 1, v 4.2-1 Problem: Ist 2, 1, 1 Q3 eine Linearkombination von u 2, 1, 0? Welche Vektoren des Q3 sind Linearkombinationen von u, v und w? Beachte: 0 ist ein Skalar so gut wie jede andere rationale Zahl, ebenso wie 1. So ist

1, 1, 0 und w

1, 1, 1 1 1, 1, 1 0 1, 1, 0 0 2, 1, 0 im Aufspann u, v, w von u, v, w, ebenso wie der Nullvektor (alle drei Koezienten sind 0).
4.2-2 Denition: Eine Teilmenge falls

T eines K -Vektorraums V heit Erzeugendensystem f ur V , V

ist, die Elemente von T heien Erzeugende oder Erzeuger von V und man sagt, dass V von T erzeugt wird. 4.2-3 Probleme: 1. K onnen zwei Vektoren den R2 aufspannen? 2. K onnen zwei Vektoren den R3 aufspannen? 3. Kann Rx von einer endlichen Menge von Vektoren aufgespannt werden?

4. K onnen zwei disjunkte Teilmengen des R2 , von denen jede zwei Vektoren enth alt, denselben Aufspann haben? Wir kommen nochmals auf den Aufspann einer Teilmenge von V zur uck. In 4.1-10 haben wir gesehen, dass dieser einen Unterraum bildet. 43

4.2-4 Satz: Sei

V . Dann ist

T
T U V

der kleinste Unterraum von V , der T als Teilmenge enth alt. T V als Menge aller Linearkombinationen von endlichen Wir haben den Aufspann T von Teilmengen von T deniert. Dies l asst sich mit folgender Verabredung wesentlich einfacher ausdr ucken: Wenn wir u ber die Elemente einer Menge M sagen, fast alle Elemente von M haben eine Eigenschaft, so meinen wir, die Eigenschaft gelte f ur alle mit Ausnahme h ochstens endlich vieler Elemente von M. Wenn wir etwa sagen, fast alle Glieder der reellen Folge i iN seien 0, dann meinen wir, dass die Folge abbricht oder dass es ein k N gibt, sodass m 0 ist f ur alle m k . Damit wird 3.2-3 zu 4.2-5 Denition: Sei

v T

V . Dann ist der von T aufgespannte Unterraum T von V die Menge v v v

K, v

0 f ur fast alle v

0. Beachte, dass 0 4.2-6 Lemma Mengen und ihr Aufspann: 1. Ist T V , dann ist T T . 2. Ist T S V , dann ist T S V . 3. Ist T V , dann ist T T .
Der Bequemlichkeit halber sei nun 4.2-7 Lemma: Sei U V . Dann ist U U.

V ist f ur jeden Vektorraum V .

4.2-8 Problem: Hat jeder Vektorraum ein Erzeugendensystem? 4.2-9 Problem: Sei U V , x, y

und sei x U , aber x U

y. Ist dann

U x U y?
4.2-10 Probleme: 1. Sei K Q und sei V die Menge aller endlichen Folgen rationaler Zahlen. So ist V die Menge

ai iN

ai

Q , ai

0 f ur fast alle i N.

Die Addition auf V und skalare Multiplikation ist wie u blich komponentenweise deniert. Hat V ein endliches Erzeugendensystem? Oder ein abz ahlbar unendliches? Wenn ja, wie sieht ein solches aus? 2. Was passiert, wenn man die Menge der endlichen rationalen Folgen durch die Menge aller rationalen Folgen ersetzt?

44

3. Sei K ein K orper. Ein Polynom px K x kann geschrieben werden als px wobei f ur die Koezienten ai gilt: ai

i 0

ai xi ,

K mit ai

0 f ur fast alle i N.

Hat K x ein abz ahlbar unendliches Erzeugendensystem, und wenn ja welches?

4.3

Summen von Unterr aumen

Wir haben in Problem 4.1-11 gesehen, dass Durchschnitte von beliebigen Unterr aumen von V wieder Unterr aume sind, w ahrend dieselbe Aussage f ur die mengentheoretische Vereinigung von Unterr aumen im allgemeinen falsch ist. 4.3-1 Denition: Seien U, W V . Dann ist die Summe von U und W die Teilmenge U von V . 4.3-2 Satz: Seien U, W V . Dann ist U U

W x y x U, y W W
ein Unterraum von V , in der Tat ist W
U,W X V

W U

der kleinste Unterraum, der U und W enth alt. 4.3-3 Korollar: Die Addition von Unterr aumen ist eine bin are Operation auf der Menge der Unterr aume von V . 4.3-4 Probleme: 1. Ist die Menge der Unterr aume von V eine abelsche Gruppe bzgl. der Summe von Unterr aumen? 2. Unter welcher Bedingung gilt U

U f ur U, W

V?

3. Ist die Menge der Unterr aume von V eine abelsche Gruppe bzgl. des Durchschnitts von Unterr aumen? 4.3-5 Probleme: Seien U, W, X 1. Ist U 2. V.

W X U W U X (ist die Addition distributiv u ber dem Durchschnitt)? Ist U W X U W U X ?

Beide Distributivgesetze gehen schief, (obwohl jedes Mal eine Seite in der anderen enthalten ist). Aber folgende Abschw achung der Distributivit at des Durchschnitts u ber der Addition gilt:

45

4.3-6 Satz: Seien U, W, X

V . Dann ist U

W U

W U

X .

Dies impliziert unmittelbar: 4.3-7 Korollar Dedekindscher Modulsatz: U Seien U, W, X V . Ist X U , so gilt:

W X U

W X.

4.3-8 Beobachtung: In der reellen Ebene betrachten wir zwei Geraden durch den Ursprung, die nicht zusammenfallen. Diese k onnen als Unterr aume des R2 aufgefasst werden. Ihre Summe als Unterr aume ist 2 die ganze Ebene R . Andererseits ist der Unterraum R2 das neutrale Element bez uglich des Durchschnitts von Unterr aumen. Umgekehrt: Der Durchschnitt dieser Geraden ist der Ursprung, d. h. der Unterraum 0, welcher hinwiederum das neutrale Element bez uglich der Summe zweier Unterr aume ist. So sind die beiden Geraden invers zueinander, aber die Operationen sind vertauscht! Diese verschr ank ten Inversen sind nat urlich weit davon entfernt, eindeutig zu sein. 4.3-9 Denition: Zwei Unterr aume U und W von V heien komplement ar , falls U ist. W heit dann Komplement von U . Wir wollen nun noch kurz unendliche Durchschnitte und Summen diskutieren. Klar ist, dass wir induktiv Durchschnitt und Summe endlich vieler Unterr aume auf den zweier Unterr aume zur uckf uhren k onnen. Sei U N eine mit einer Menge N indizierte Kollektion von Unterr aumen U von V . 4.3-10 Denition: 1. Der Durchschnitt der Unterr aume U , W

und

N ist der Unterraum v V v U  N .


ist der Unterraum v

N N

2. Die Summe der Unterr aume U ,

U bestehend aus Summen

wobei v

U ist, und v

V N ) von V

0 ist f ur fast alle

N.
sind Unterr aume.

4.3-11 Lemma: Durchschnitt und Summe beliebiger Unterr aume U (

Wir haben in Satz 4.2-4 gesehen, dass T der kleinste Unterraum von V ist, der die Teilmenge T von V enth alt. Also: 4.3-12 Korollar: Eine Teilmenge T von V ist genau dann ein Erzeugendensystem von V , wenn sie in keinem echten Unterraum von V enthalten ist. Insbesondere ist jede in V enthaltene Obermenge eines Erzeugendensystems ebenfalls ein Erzeugendensystem.

46

4.3-13 Beispiel: 1. T 2. T 3. T

1, 1 x, 1 x x2 ist ein Erzeugendensystem von K2 x. 1, x, x2 , x3 , . . . ist Erzeugendensystem f ur K x und 1, 0, 0, 1, 1, 1 ist Erzeugendensystem f ur R2 .

Im ersten Beispiel haben wir eine Teilmenge, die endlich ist, aber nicht kleiner gemacht werden kann, im Gegensatz zum dritten Beispiel: Hier gen ugen schon die beiden ersten Vektoren. Im zweiten Beispiel haben wir es mit einem unendlichen Erzeugendensystem zu tun, das man nicht kleiner machen kann. In der Tat sieht man intuitiv, K2 x und R2 sind endlich-dimensional , wohingegen K x unendlich-dimensional ist. Ist jeder Unterraum eines endlich-dimensionalen Unterraums endlich-dimensional? Die Antwort ist ja, wie wir sp ater sehen werden. 4.3-14 Problem: Ist T ein Erzeugendensystem von V und U Erzeugendensystem f ur U ? V , ist dann eine Teilmenge von T ein

Im n achsten Abschnitt werden wir nun minimale Erzeugendensysteme studieren und sehen, dass man mit ihrer Hilfe zu einer vern unftigen Denition der Dimension eines Vektorraums kommt.

4.4

Minimale Erzeugendensysteme

Ein Erzeugendensystem T f ur V heit minimal , wenn es minimal bez uglich der Inklusion von Mengen ist, d. h. wenn man keinen Vektor aus T entfernen darf, ohne die Eigenschaft ein Erzeugendensystem zu sein, zu zerst oren. Mit anderen Worten: T ist minimal genau dann, wenn jede echte Teilmenge von T in einem echten Unterraum von V liegt. Wir wollen nun nach alternativen Beschreibungen dieser Eigenschaft suchen. Wir beginnen damit, das Gegenteil, n amlich die Eigenschaft nicht minimal zu sein, umzuformulieren. Wir beginnen mit zwei Beobachtungen: 4.4-1 Beobachtung: Sei T V.

1. 0 ist Linearkombination von T . 2. Ist T Erzeugendensystem von V und 0 T , so ist T nicht minimal. 4.4-2 Beispiel: Betrachten wir T x, y, z mit x 1, 0, y 0, 1 und z 1, 1 im R2 . Klar ist, dass T kein minimales Erzeugendensystem ist, da ja T x, y schon eines ist. In der Tat ist z die Summe von x und y , und man kann leicht sehen, dass man in einem Erzeugendensystem T jedes Element t von T , das sich als Linearkombination der anderen Elemente schreiben l asst, ohne weiteres weglassen kann, da man es ja dann in jeder Linearkombination, in der es vorkommt, durch eine Linearkombination alt. So ist etwa von T T t ersetzen kann und dann eine Linearkombination von T erh x 2y 3z 4.4-3 Lemma: Sei T x 2y 3x y

2 x y .
T t. Dann ist

V und sei t T eine Linearkombination von T

T .

Wir fahren mit unserer Diskussion von Beispiel 4.4-2 fort: Dass z die Summe von x und y ist, kann man in der folgenden, dazu aquivalenten Form ausdr ucken: xyz 47 0.

Allgemein: Ist t t v T v v mit v a quivalente Umformung: ur t wobei v v f die der Koezient v 4.4-4 Lemma: Sei T

K , sodass v

v T

0 f ur fast alle v

T ist, so hat man die

v T und t 1 ist. Die letzte Formel hat aber f ur alle Elementen von T , f ur 0 ist, dieselbe Form. V und sei t0

v v

0,

T . Seien t1 , t2 , . . . , tk T
t0
k i 1

und 1 , . . . , k

K , sodass gilt:

i ti ,

dann ist jedes ti f ur i 1, . . . , k Linearkombination von T ti , und der Nullvektor ist Linearkombination von T , sodass nicht alle Koezienten verschwinden. Die Darstellung des Nullvektors 0 0 v1 0 v2 0 vk

als Linearkombination der Vektoren v1 , . . . , vk heit triviale Darstellung der 0. Eine Darstellung des Nullvektors als Linearkombination von Vektoren mit mindestens einem nichtverschwindenden Koezienten heit nichttriviale Darstellung der 0. 4.4-5 Denition: Eine Teilmenge T von V heit linear abh angig , falls es eine nichttriviale Darstellung der 0 mit Vektoren aus T gibt, sonst linear unabh angig . angig oder linear unabh angig? 4.4-6 Problem: Ist die leere Menge linear abh Ist T V linear unabh angig, so sagt man auch oft, die Vektoren in T seien linear unabh angig. Ist v V angig von T . Unmittelbar aus den eine Linearkombination von T V , so sagt man auch, v sei linear abh Denitionen folgt nun: 4.4-7 Satz: 1. Der Nullvektor ist von jeder Teilmenge von V linear abh angig. 2. Enth alt T V den Nullvektor, so ist T linear abh angig. 3. Nimmt man von einer linear unabh angigen Teilmenge Vektoren weg, so bleibt sie linear unabh angig. 4. F ugt man zu einem Erzeugendensystem von V Vektoren hinzu, so bleibt es ein Erzeugendensystem. Hier ist nun unser erster fundamentaler Satz u ber Erzeugendensysteme: ur V . Dann ist T minimal genau dann, wenn es linear 4.4-8 Satz: Sei T ein Erzeugendensystem f unabh angig ist. 4.4-9 Denition: Ein minimales Erzeugendensystem von V heit Basis von V . Nun kommen wir zum zweiten fundamentalen Satz u ber Erzeugendensysteme: 4.4-10 Satz: Eine Teilmenge T von V ist Basis von V genau dann, wenn T eine maximale, linear unabh angige Teilmenge von V ist. Unmittelbar daraus ergeben sich nun folgende Fragen:

48

4.4-11 Frage: 1. Hat jeder Vektorraum eine Basis? 2. Kann man irgendwelche Eindeutigkeitsaussagen bzgl. einer Basis machen? 4.4-12 Probleme: 1. Was sind die Basen von R1 u ber R? 2 2. Gibt es einen Vektor im R , der ganz R2 erzeugt?

3. Sei x R2 . Was sind die Basen von R2 , die x enthalten? 4. Kann der R2 eine linear unabh angige Menge bestehend aus drei Vektoren haben? 5. Wie kann man die Basen des R2 charakterisieren?

6. Gibt es vier linear unabh angige Vektoren im C3 ? 7. Was vermuten Sie u ber die Anzahl der Elemente einer Basis von C3 , R3 , K 3 oder allgemeiner K n ? 4.4-13 Probleme: 1. Hat der Nullraum 0 eine Basis, und wenn ja welche? 2. Wann hat ein Vektorraum V genau eine Basis? Die Idee der linearen Unabh angigkeit ist fundamental f ur die lineare Algebra (und dar uber hinaus). Der beste Weg, dass einem diese in Fleisch und Blut u oglichst viele Beispiele anzusehen. bergeht ist, sich m Hier sind einige weitere: 4.4-14 Probleme: angig u 1. F ur welche x R ist 1, x linear unabh ber Q? 2 2. Der R ist auch ein Vektorraum u ber Q, oder? Man vergesse einfach, dass man auer mit rationalen Zahlen auch mit reellen Zahlen multiplizieren kann. Wann sind 1 , 1 und 1 , 1 f ur R linear unabh angig u ber R, u ber Q? 3. Gibt es eine Teilmenge des R3 , die linear unabh angig u angig u ber Q aber linear abh ber R ist? 4 4. Hat der C zwei Basen, die genau die Vektoren 0, 0, 1, 1 und 1, 1, 0, 0 gemeinsam haben?

angig? 5. Hat K x eine Basis? Sind die Polynome 1 x, 1 x immer linear unabh 4.4-15 Problem: 1. Sei T die Teilmenge des R4 , die aus den sechs Vektoren

1, 1, 0, 0 1, 0, 1, 0 1, 0, 0, 1 0, 1, 1, 0 0, 1, 0, 1 0, 0, 1, 1
besteht. Was sind die linear unabh angigen Teilmengen von T , und welche davon sind maximal? 2. Wie verhalten sich Erzeugendensysteme und linear unabh angige Teilmengen unter Durchschnitt und Vereinigung? Wir kommen auf Frage 4.4-11 zur uck und wollen dazu eine Vermutung formulieren, deren Beweis einiges an Anstrengung erfordern wird:

49

4.4-16 Vermutung: 1. Jeder K -Vektorraum V hat eine Basis. 2. Je zwei Basen eines Vektorraums V enthalten gleichviele Elemente. Die erste Vermutung wird zuerst behandelt und hat eine u ur die zweite werden wir berraschende Antwort, f uns darauf beschr anken, den Beweis f ur Vektorr aume mit einer endlichen Basis zu f uhren. Vektorr aume, die keine solche besitzen, haben f ur uns nur Basen mit unendlich vielen Elementen. Wir werden nicht zwischen verschiedenen Qualit aten von unendlich unterscheiden, (wie beispielsweise abz ahlbar oder uberabz ahlbar unendlich). Im Spezialfall, wenn wir schon wissen, dass V ein endliches Erzeugendensystem besitzt, ist die erste Vermutung nat urlich trivialerweise richtig: ur V . Dann enth alt T eine Basis von V . 4.4-17 Satz: Sei T ein endliches Erzeugendensystem f Startet man mit einem unendlichen Erzeugendensystem, dann wird es schwierig, zu zeigen, dass dieses eine Basis enth alt. Es kann passieren, dass man Vektor um Vektor wegstreicht, und es bleibt doch ein Erzeugendensystem u brig. Die Wahrheit ist, dass man gar nicht zeigen kann, dass ein Erzeugendensystem ein minimales enth alt. Auch das andere Extrem, n amlich die Charakterisierung einer Basis als maximale linear unabh angige Teilmenge von V hilft nicht weiter. Wir werden jedoch zeigen, dass man annehmen kann, dass V eine Basis besitzt, ohne dass man dadurch in Widerspruch zu irgendwelchen anderen Eigenschaften von Vektorr aumen ger at. Welches Lemma werden wir wohl benutzen, um diese Aussage zu zeigen? Wir kommen nun noch zu einer fundamental wichtigen Eigenschaft von linear unabh angigen Teilmengen: 4.4-18 Problem: 1. Sei T x, y, z R2 mit x 1, 0, y 0, 1 und z 1, 1. Wie wir wissen, ist T insbesondere 2, 3 x y z f ur reelle Zahlen , und . Sind diese eindeutig? R2 . So ist

2. Was ist, wenn man im obigen Problem T durch y, z ersetzt? Wir sagen, eine Linearkombination tT t t mit t falls die Koezienten t eindeutig bestimmt sind.

K , wobei t

0 f ur fast alle t T ist, ist eindeutig ,

4.4-19 Satz Eindeutigkeit: Sei T ein Erzeugendensystem f ur den Vektorraum V . Dann ist T eine Basis von V genau dann, wenn sich jeder Vektor eindeutig als Linearkombination von T darstellen l asst. 4.4-20 Korollar: K x hat Basis E

xi i N0 . Kn x hat Basis En xi i 0, . . . , n. v1 , . . . , vn . So k onnen wir jedes Element

Satz 4.4-19 hat eine interessante Interpretation: 4.4-21 Bemerkung: Sei V ein K -Vektorraum mit Basis B v V eindeutig als Linearkombination v
n

i vi

i 1

schreiben. Halten wir die Basis B von V fest, so erhalten wir eine bijektive Abbildung zwischen V und K n durch v
n

i vi

1 , . . . , n K n.

i 1

50

Ist u

1 v1 n vn

V , d.h. u 1 , . . . , n K n, so gilt 1 1 , . . . , n n K n , uv
v

und a ur K hnlich f

1 , . . . , n .

So entspricht die Addition und skalare Multiplikation in V exakt den entsprechenden Operationen in K n , d. h. V sieht aus wie der K n . Die Formeln f ur die Operationen sagen, dass die bijektive Abbildung die Struktur des Vektorraumes aume, zwischen erh alt, bzw. die Operationen Addition und skalare Multiplikation respektiert. Vektorr denen so eine bijektive Abbildung besteht, braucht man nicht zu unterscheiden, solange man sich auf Eigenschaften von Vektorr aumen beschr ankt. Mit Hilfe der Abbildung kann jede Aussage u ber den einen Vektorraum in eine analoge Aussage u uhrt werden. Man nennt solche ber den anderen Vektorraum u berf R aume isomorph . 4.4-22 Notation: Sei V ein K -Vektorraum mit Basis B sich jeder Vektor v V eindeutig als Linearkombination v wir das als 1 2 v . , . . n
B

vn1 , . . . , vn . Wie in
i

4.4-21 angemerkt, l asst v schreiben. Zur Abk u rzung notieren i i 1

d. h. wir schreiben v als Spalte mit Koezienten 1 , . . . , n . Dies setzt nat urlich voraus, dass B geordnet ist, d. h. die Basisvektoren von 1 bis n durchnummeriert werden. Vertauscht man etwa in B den ersten und den zweiten Basisvektor, so muss man entsprechend 1 und 2 in obiger Spalte vertauschen. Wir sprechen von einer geordneten Basis B und schreiben B v1 , . . . , vn . 4.4-23 Denition geordnete Basis: Eine geordnete Basis von V ist eine Basis B zusammen mit einer vollst andigen Ordnung auf B (Existenz durch den Wohlordnungssatz!). Im folgenden meinen wir mit Basis immer eine geordnete Basis. 4.4-24 Probleme: 1. Kann Bemerkung 4.4-21 auf Vektorr aume, die keine endliche Basis besitzen, verallgemeinert werden? 2. Sei V R2 und B 1, 1, 1, 1. Auf welches Element , R2 wird v V unter der 3. Sei V Bijektion aus Bemerkung 4.4-21 abgebildet, und zwar f ur v 1, 3, 1, 1, 0, 0, 1, 0, 2, 1? K n . Gibt es eine Basis so, dass die Zuordnung in 4.4-21 die Identit at wird?

4.5

Basen und Dimension

Wir kommen nun auf die Frage 4.4-11 zur uck: Hat jeder Vektorraum eine Basis? 4.5-1 Satz: Setzt man das Auswahlaxiom voraus, dann besitzt jeder Vektorraum eine Basis. Wir beweisen sogar die sch arfere Aussage:

51

4.5-2 Satz: Setzt man das Auswahlaxiom voraus, so enth alt jedes Erzeugendensystem von V eine Basis. Diese S atze sind nat urlich unbefriedigend. Sie sagen ja wirklich, dass man f ur Vektorr aume, f ur die man eine Basis nur mit Hilfe des Auswahlaxioms nden kann, eine solche niemals wirklich konstruieren kann. Man kann sogar annehmen, dass solche Vektorr aume keine Basis besitzen, ohne dass man daraus einen Widerspruch ableiten kann. Andererseits kann man von vielen Vektorr aumen ohne Auswahlaxiom aufgrund ihrer Konstruktion eine Basis direkt angeben. Dazu geh oren alle, die ein endliches Erzeugendensystem besitzen, aber auch viele ohne ein solches. aumen, die keine endliche, aber eine konstruierbare 4.5-3 Problem: Geben Sie Beispiele von Vektorr Basis besitzen. Wir wenden uns nun Vektorr aumen zu, die ein endliches Erzeugendensystem haben. Uber einen solchen Vektorraum sagen wir auch, V sei endlich erzeugt . Zun achst untersuchen wir, wie sich Erzeugendesysteme zueinander verhalten. 4.5-4 Satz Austauschsatz von Steinitz: Sei B Erzeugendensystem und T x1 , . . . , xk eine linear unabh angige Teilmenge von V . Dann gibt es eine k -elementige Teilmenge C von B , sodass B C T den ganzen Raum V aufspannt. Der Satz sagt also, dass man einen Teil von B durch T ersetzen kann, wobei weggelassener und hinzugef ugter Teil ( T ) dieselbe Anzahl von Elementen besitzen. (Das kann man auch so interpretieren, dass man einen Teil von B zu T hinzuf ugt und ein Erzeugendensystem erh alt). Hier sind einige Folgerungen aus dem Austauschsatz: angige 4.5-5 Korollar: Sei V von einer n-elementigen Menge erzeugt und sei A eine linear unabh Teilmenge von V . Dann hat A h ochstens n Elemente. 4.5-6 Korollar: In einem endlich erzeugten Vektorraum V sind alle Basen endlich und haben gleich viele Elemente. 4.5-7 Korollar: Sei C eine n-elementige Basis und B b1 , . . . , bk eine linear unabh angige Teilmenge von V . Dann ist k n und es gibt c1 , . . . , cnk C , sodass B eine Basis von V ist. Insbesondere kann jede linear unabh angige Teilmenge eines endlich erzeugten Vektorraums V zu einer Basis erg anzt werden. 4.5-8 Denition Dimension: Sei V endlich erzeugt. Dann ist die Anzahl der Elemente einer Basis von V eindeutig bestimmt. Diese nat urliche Zahl heit Dimension von V und wird mit dim V oder dimK V bezeichnet. Wir setzen dimK 0 0. Ist V nicht endlich erzeugt, so ist dim V . 4.5-9 Korollar: Sei V Vektorraum der Dimension n N0 . Dann ist jede Teilmenge T von V mit mehr als n Elementen linear abh angig, und eine n-elementige Teilmenge von V ist eine Basis genau dann, wenn sie linear unabh angig ist, oder alternativ, wenn sie V erzeugt.

b1 , . . . , bk , c1 , . . . , cnk

52

4.5-10 Probleme: 1. Ist jedes minimale Erzeugendensystem eines Vektorraums linear unabh angig? 2. Ist jedes linear unabh angige Erzeugendensystem minimal? 3. Enth alt jedes Erzeugendensystem eine Basis? 4. Wieviele Vektoren kann eine linear unabh angige Teilmenge von Rn h ochstens enthalten? 5. Eine Teilmenge T eines n-dimensionalen Vektorraums heit relativ unabh angig , falls jede n-elementige Teilmenge von T linear unabh angig ist. Hat der R2 relativ unabh angige Teilmengen mit 3 Elementen? Kann es gr oere relativ unabh angige Teilmengen geben? V . Kann U dieselbe Dimension wie V haben? Ist B eine Basis 6. Sei V endlichdimensional und U von U und x V U , was kann man u ber B x sagen? 4.5-11 Beispiel: 1. Sei ei 1 , . . . , n K n mit j ij , wobei ij das Kroneckerdelta (ij sonst) ist. Dann ist e1 , . . . , en eine Basis von K n . 2. Sei U 1 f ur i j und ij 0

, , R3

. Was ist dim U ? Basis von U ?

4.5-12 Satz: Sei V endlich erzeugt der Dimension n N0 und sei U dimensional und dim U dim V . Ist B V ist.

V . Dann ist U endlich

b1 , . . . , bn eine Basis von b1 , . . . , bk eine Basis von U , so gibt es bk1 , . . . , bn V , sodass B

4.6

Unterr aume, Komplemente und direkte Summen


B eine Basis von U W ? Wie kann man

Wir untersuchen nun Summen von Unterr aumen. 4.6-1 Problem: Seien U, W V mit Basen A und B . Ist A eine Basis von U W konstruieren?

Mengen eines Mengensystems heien disjunkt , falls je zwei Mengen des Systems kein Element gemeinsam haben. Automatisch ist dann der Durchschnitt einer jeden Menge des Systems mit der Vereinigung aller anderen leer und insbesondere kommt eine Menge h ochstens einmal in dem System vor. Ist M M ein disjunktes Mengensystem, so ist

M . V . Dann gibt es drei disjunkte

4.6-2 Satz: Sei V ein endlich erzeugter Vektorraum, und U, W Teilmengen A, B und C von V so, dass gilt: 1. A ist Basis von U 2. A 3. A 4. A W,

B ist Basis von U , C ist Basis von W , B C ist Basis von U

W.
53

Insbesondere gilt die Dimensionsformel dimU

W dimU

dim U

dim W.

Die Dimensionsformel gilt auch f ur unendlich dimensionale Vektorr aume V , wenn man und f ur a, b N setzt. Die Dimension von U ist hierbei beliebig, d. h. endlich oder unendlich, a b und dasselbe gilt f ur W . Die Dimensionsformel zeigt, dass die Dimension einer Summe zweier Unterr aume genau dann die Summe der Dimensionen der Unterr aume, wenn sich diese trivial schneiden, d. h. ihr Schnitt 0 ist. 4.6-3 Erinnerung: Sei U V . In 4.3-9 haben wir Komplemente eingef uhrt: So ist W V ein U W und U W 0 ist. In dieser Situation sagt man auch, V ist die Komplement von U , falls V direkte Summe von U und W und schreibt V U W. Hier ist die Verallgemeinerung von Komplementen auf beliebig viele Unterr aume. 4.6-4 Denition Innere direkte Summe: Sei Ua a A ein mit der Menge A indiziertes System von Unterr aumen von V . Dann ist V die (interne) direkte Summe der Ua , geschrieben als V falls gilt: 1. V 2.

a A

Ua ,

a A : U a

a A

Ua und

a b A

Ub

0.
V U1 U2

Ist die Indexmenge A endlich, insbesondere z. B. A

1, 2, . . . , k, so schreiben wir auch Uk .


R2, 2. Ist R2

4.6-5 Probleme: 1. Wir betrachten drei Unterr aume von R2 : U R1, 1, W R1, 2 und X direkte Summe von einem, von zwei oder allen drei Unterr aumen? 2. Sei V ur jeden Index a aA Ua und sei f eine Basis von V konstruieren?

A eine Basis Ba von Ua gegeben. Kann man daraus

3. Wie sieht die Dimensionsformel 4.6-2 f ur direkte Summen aus? aume von V . Dann ist V 4.6-6 Satz: Seien Ua mit a A Unterr jeder Vektor v V eindeutig als Summe v schreiben l asst.

a A a A Ua

genau dann, wenn sich

va ,

va

Ua , va

0 f ur fast alle a A

54

4.6-7 Korollar: Sei A Basis von V . Dann ist V

v A

Kv .

R2 ist (interne) direkte Summe von je zwei verschiedenen Geraden in der reellen Ebene, und jede davon sieht aus wie der ein-dimensionale reelle Raum R1 . Andererseits besteht der R2 aus Paaren von reellen Zahlen, die man selbst als Elemente vom R1 auassen kann. Kann man ahnlich die Elemente zweier beliebiger Vektorr aume zu einem neuen Vektorraum zusammenfassen, indem man auf dem kartesischen Produkt dieser R aume eine geeignete Addition und eine geeignete skalare Multiplikation deniert? aume. Dann ist die ( auere) direkte Summe : Seien U und W K -Vektorr 4.6-8 Denition Auere direkte Summe U W von U und W wie folgt deniert: Als Menge ist U W das kartesische Produkt U W . Die Addition ist komponentenweise deniert, ebenso wie eine skalare Multiplikation, d. h. f ur u1 , u2 U, w1 , w2 W und K gilt:

u1 , w1 u2 , w2 u1 u2 , w1 w2 und u1 , w1 u1 , w1 .
W ist mit der Addition und skalaren Multiplikation aus Denition 4.6-8 ein K 4.6-9 Satz: U Vektorraum. Das neutrale Element bez uglich der Addition ist 0, 0, das Inverse von v1 , v2 ist das Paar v1 , v2 . U Zu einer aueren direkten Summe V W : u, w V u 0U V denieren.
: W kann man U

u, w

0W

V und

, W wie oben deniert. Dann sind U und U W wie in 4.6-8 und seien U 4.6-10 Korollar: Sei V W. W Unterr aume von V , und V ist interne direkte Summe U und W sehen wie U bzw. W aus, deshalb k Die Unterr aume U onnen wir sie miteinander identizieren (wir werden das im n achsten Kapitel pr azise formulieren). Das Korollar sagt, dass wir eigentlich nicht zwischen internen und externen direkten Summen zu unterscheiden brauchen (und dies berechtigt uns, dieselbe Notation daf ur zu verwenden). Die Dimensionsformel 4.6-2 wird nun zu:

4.6-11 Korollar: Sei V

W . Dann ist dim V

dim U

dim W .

Das Ganze geht nat urlich auch f ur beliebige Systeme von R aumen: 4.6-12 Denition: Seien Ua , a deniert als U Ua
a A

A ein System von K -Vektorr aumen. Die direkte Summe der Ua ist uaaA
ua

Ua , u a

0 f ur fast alle a A ,

wobei Addition und skalare Multiplikation komponentenweise erkl art sind.

55

4.6-13 Satz: Die direkte Summe U


a A

der K -Vektorr aume Ua ist ein K -Vektorraum mit neutralem Element 0a aA durch va aA va aA f ur va aA U . Die Menge
a U

Ua

U und Inversen deniert

vb bA U

vb

0 f ur a

b A

ist ein Unterraum von U , der mit Ua identiziert werden kann, und U ist die interne direkte Summe der a , a A. Die Dimension von U ist die Summe der Dimensionen der Ua . U 4.6-14 Korollar: Eine Basis einer direkten Summe von Vektorr aumen Ua ergibt sich als Vereinigung von Basen der Ua . Gibt es nun zu einem gegebenen Unterraum immer ein Komplement? 4.6-15 Satz Komplemente: Sei V ein K -Vektorraum.

1. Ist V endlich erzeugt, so besitzt jeder Unterraum von V ein Komplement. 2. Ist V nicht endlich erzeugt, so besitzt jeder Unterraum von V ein Komplement, wenn man das Auswahlaxiom voraussetzt. Ist man bereit, das Auswahlaxiom zu akzeptieren (und das wollen wir von nun an tun), so hat man unmittelbar: 4.6-16 Korollar: Sei U ein Unterraum von V . Dann kann man jede Basis von U zu einer solchen von V erg anzen.

4.7

Faktorr aume

Wir beginnen mit einigen Problemen: R2 (so ist U eine Gerade durch den 4.7-1 Probleme: Sei U ein eindimensionaler Unterraum von V Ursprung). F ur v V denieren wir eine Teilmenge v von V durch v

u V

v u U .

1. Wie kann man v geometrisch beschreiben? 2. Gibt es alternative Beschreibungen der Mengen v ? v u U , so deniert 3. Setzt man v U u symmetrisch, antisymmetrisch, transitiv? vu Macht dies V v u und
U

eine Relation auf V . Ist diese reexiv,

4. Seien v, u V , R. Man deniere

v .

V zu einem Vektorraum? Wenn ja, was ist seine Dimension?

56

Wir vergleichen die Konstruktion von V in Problem 4.7-1 mit der eines Komplements U von U in V : Nach Voraussetzung ist U eine Gerade durch den Ursprung. Somit ist jede Gerade durch den Ursprung, die nicht mit U zusammenf allt, ein Komplement. Es gibt sehr viele Komplemente und es gibt keinen nat urlichen Weg, eines auszusuchen. Nun haben wir in 4.7-1 einen eindimensionalen Vektorraum V konstruiert, der auch einen gewissen komplement aren Charakter bzgl. U hat, aber seine Konstruktion ist nat urlich, d. h. involviert keine Wahl, wie etwa die Wahl einer Basis etc. 4.7-2 Problem: 1. Seien U V und V wie in 4.7-1. Sei U ein Komplement von U , v
2 3

V . Was ist U

v?

R und den eindimensionalen Unterraum U durch einen ein2. Ersetzen Sie in 4.7-1 R durch V oder zweidimensionalen Unterraum. Um die Konstruktion von Faktorr aumen zu verstehen, ist es n utzlich, sich unser Beispiel 4.7-1 vor Augen zu halten: Ist z.B. U die x-Achse, so besteht V aus den waagrechten Geraden, und wir versuchen, dieser Menge die Struktur eines reellen Vektorraums zu verpassen. Aber es ist klar, wie man solche Geraden addiert und skalar multipliziert: Hat man zwei waagrechte Geraden g und h, so erh alt man durch Addition ihrer y -Achsenabschnitte den y -Abschnitt der waagrechten Gerade g h. Die skalare Multiplikation ist ahnlich deniert. Von nun an sei V wieder ein K -Vektorraum, K ein K orper. 4.7-3 Denition/Lemma Nebenklassen: Sei U V . Wir denieren auf V eine Aquivalenzrelation (oder einfach ) durch: U w v U, v U w f ur v, w

V . Ist v

w, so sagen wir auch v ist kongruent zu w modulo U und schreiben: v w mod U.

Die Aquivalenzklassen von enth alt, ist

heien Neben- oder Restklassen modulo U , und die Klasse, die v v vU

v u
v

u U .

Die Menge der Nebenklassen modulo U ist V und wird mit V U bezeichnet. 4.7-4 Bemerkung: Sind v, w V und U V , so kann es durchaus passieren, dass w U vU ist, ohne dass w v ist. In der Tat passiert dies genau dann, wenn w und v kongruent modulo U sind. Daher ist die Liste von Elementen v U in V U

v U

v U

redundant, d. h. enth alt viele Wiederholungen. Wie es sich f ur eine ordentliche Menge geh ort, werden Wiederholungen einfach ignoriert, d. h. jedes Element ist nur einmal in V U .

57

4.7-5 Beobachtung Summen von Nebenklassen:

Sei U

v U w U x y
der Klassen von v und w wieder eine Klasse, n amlich

V . Dann ist die Summe x v U, y w U


V und v, w

v U w U v w U .
ur die Nebenklassen v 4.7-6 Denition/Lemma Faktorraum: Sei U V . F in V U denieren wir v w v w v w U und ahnlich f ur K v v v U und w wU

Dies sind wohldenierte Operationen und V U ist ein K -Vektorraum. Der Nullvektor in V U ist die U und das additive Inverse von v U ist v U . Der K -Vektorraum V U mit Nebenklasse 0 U dieser Addition und skalaren Multiplikation heit Faktor- oder Quotientenraum V modulo U und wird ebenfalls mit V U bezeichnet. Sie sollten Nebenklassen nun aber nicht als Konglomerat einzelner Vektoren von V ansehen, die einzeln addiert und skalar multipliziert werden, sondern eben als Elemente von V U , die als solche addiert, skalar multipliziert etc. werden. Nat urlich, um diese Operationen konkret durchzuf uhren, muss man sich einzelner Elemente, genannt Repr asentanten (oder Nebenklassenvertreter ) bedienen, die man willk urlich aber fest aus den Nebenklassen ausw ahlt, pro Nebenklasse genau einen. Dass dies gutgeht, d. h. dass es gleichg ultig ist, welche Repr asentanten man w ahlt, dr uckt gerade aus, dass Addition bzw. skalare Multiplikation wohldeniert sind. Nun wollen wir wieder den Zusammenhang mit Komplementen herstellen: U W ). Seien w, w W . 4.7-7 Satz: Sei U V , und sei W ein Komplement von U in V (d.h. V Dann ist w w mod U genau dann, wenn w w ist. Dar uberhinaus enth alt jede Nebenklasse v U genau ein Element w wv W , und f ur x, y V, K haben wir:

v U .

x U y U wx wy U
und x U Ist B eine Basis von W , so ist B eine Basis von V U . Insbesondere ist dim V

wx U.
b B

b U
dim U

dim V U

4.7-8 Denition: W ahlt man bei einer beliebigen Aquivalenzrelation zu jeder Aquivalenzklasse einen Repr asentanten, so nennt man deren Zusammenfassung ein Repr asentantensystem . So kann man als Repr asentantensystem der Nebenklassen von U in V gerade die Elemente eines Komplements W von U in V w ahlen, und dann sieht der Faktorraum V U gerade wie der Raum W aus.

58

4.7-9 Problem: 1. Gibt es einen Vektorraum V und einen Unterraum U von V , sodass weder U noch V U endlichdimensional sind? 2. Gibt es einen unendlich-dimensionalen Vektorraum V und einen Unterraum W endlich-dimensional ist? V so, dass V W

59

Kapitel 5

Lineare Transformationen
5.1 Grundlagen

Here is where the action starts! Bis jetzt waren Vektorr aume eben Vektorr aume, die nur dasitzen und mit denen man nichts weiter anfangen kann. Jetzt kommt aber Bewegung in die Sache: Wir werden Vektoren in andere Vektoren verwandeln. Hier ist ein Beispiel: 5.1-1 Beispiel: Sei V R5 x. Ersetze jedes Polynom p durch seine Ableitung Dp. Was f allt auf: 3 und Dp2 7 10x Dp2 10x. Ist nun p p1 p2 3x 5x2 , so ist

2. Wir haben auch D7p2

1. Ist p1 3x und p2 5x2 dann ist Dp1 Dp 3 10x Dp1 Dp2 . D35x2 70x

7Dp2 , oder allgemeiner

Dp2

 R.

5.1-2 Beispiel: Sei S die Abbildung, die jeden Vektor des R3 um den Faktor 7 dehnt, also S x, y, z 7x, 7y, 7z . Dann wird der Vektor u 1, 0, 2 auf Su 7, 0, 14, und v 3, 1, 5 auf Sv 21, 7, 35 abgebildet. Die Linearkombination 3u 2v 3, 0, 6 6, 2, 10 3, 2, 4 wird auf S 3u 2v 21, 14, 28 abgebildet, auf der anderen Seite ist 3 Su 2 Sv 37, 0, 14 221, 7, 35 ebenfalls gleich 21, 14, 28. Das funktioniert immer: Sind zwei (mehr, beliebig viele) Vektoren gegeben und formt man eine Linearkombination mit ihnen, die man dann um den Faktor 7 dehnt, so erh alt man dasselbe Resultat, indem man zuerst die Vektoren um den Faktor 7 dehnt und dann dieselbe Linearkombination bildet. 5.1-3 Denition: V und W seien K -Vektorr aume. Eine Abbildung f von V nach W heit linear, K -linear , lineare Transformation oder auch Homomorphismus , falls gilt: 1. f x y 2.

x, y V . f x f x x V, K . y, x. x2 , y2 . f : x, y f : x, y ex , ey .
R2 und T : Rx Rx Homomorphismen oder nicht?

f x f y

5.1-4 Probleme: Sind f : R2 1. f : x, y 2. 3.

60

4. T : p 5. f : x, y 6. 7. 8. 9. 10. 11.
2

ptdt.

2x 3y, 7x 5y. f : x, y x y, x y, wobei , , , beliebige Skalare sind. x2 y2 , x2 y2 . f : x, y 2 x 2 y, 2 x 2 y f : x, y T : px px2 . px2 . T :p x2 px. T :p

5.1-5 Denition: Seien V und W Vektorr aume. Ein injektiver Homomorphismus f : V W wird Monomorphismus , genannt. Ist f linear und surjektiv, so spricht man von einem Epimorphismus und ist f bijektiv, von einem Isomorphismus . Gibt es einen Isomorphismus von V auf W , so nennen wir V und W isomorph und schreiben W. V Ist f : V V linear, so sprechen wir auch von einem Endomorphismus von V , und ist f zus atzlich bijektiv, von einem Automorphismus von V . Ist obige Bezeichnung f ur isomorphe Vektorr aume berechtigt? Die Antwort ist ja, wie folgender Satz zeigt: aume und sei f : V 5.1-6 Satz: Seien V und W Vektorr f 1 : W ebenfalls ein Isomorphismus. 5.1-7 Satz: Die Komposition von (Mono-, Epi-, Iso-) Homomorphismen ist (Mono-, Epi-, Iso-) Homomorphismus. 5.1-8 Probleme: Sind die folgenden Abbildungen Mono-, Epi- bzw. Isomorphismen? Was ist das Bild dieser Abbildungen? 1. T : K5 x 2. Sei f : R3 x K10 x : px px2 . f 0 1 x 2 x2 3 x3 f ur 0 , 1 , 2 , 3 3. Sei B R4 deniert durch V W ein Isomorphismus. Dann ist

0 , 1 , 2 , 3
K n durch

R. v1 , . . . , vn eine geordnete Basis von V . Deniere f : V

f f ur 1 , . . . , n

n i 1

i vi

1 , . . . , n ,
R:f f ,

K.
R, E sei die Abbildung gegeben durch E : V

4. Sei V der Raum der Funktionen R wobei eine feste reelle Zahl ist.

61

5.1-9 Probleme: 1. Deniert die Gleichung T px px 2

eine lineare Transformation von Q5 x nach Q10 x? Was ist im T ? 2. Ist durch
3

T x, y, z
2

0, 0

eine lineare Transformation von R nach R deniert? 3. Deniert die Gleichung einen Homomorphismus T : R3 T x, y, z R2 ?

x 2, y 2

R mit Addition x y xy und 4. Sei V der in Problem 4.1-3 auftauchende reelle Vektorraum: V skalarer Multiplikation x x f ur x, y R und R. Was ist dimR V ? Wie sieht eine Basis aus? Ist log : R R eine lineare Transformation? 5.1-10 Problem: Gibt es einen Homomorphismus T : R2 R3 , der 1, 0 nach 1, 1, 0 und 0, 1 nach 0, 1, 1 abbildet? Was ist, wenn man 0, 1, 1 durch 1, 1, 0 oder 2, 2, 0 ersetzt? Wenn ja, was ist das Bild von T ? 5.1-11 Satz: Seien V und W K -Vektorr aume. 1. Eine K -lineare Transformation f : V W ist vollst andig durch ihre Werte auf einem ErzeugenW Homomorphismen, ist T V mit T V , und ist densystem bestimmt. D. h. sind f, g : V f t g t f ur alle t T , so ist f g .

2. Sei B v1 , . . . , vn eine Basis von V , und seien w1 , . . . , wn beliebige (nicht notwendig verschiedene) Vektoren in W . Dann gibt es genau eine lineare Transformation T : V W mit T vi wi f ur i 1, . . . , n. Es gilt: T
n

i vi

i wi

1 , . . . , n K.

i 1

i 1

5.1-12 Problem: Erweitern Sie den zweiten Teil des vorigen Satzes auf unendlichdimensionale Vektorr aume. Im folgenden seien nun V und W immer K -Vektorr aume. 5.1-13 Korollar: Sei f : V Beachte: Ist v W ein Homomorphismus. Dann ist im f ein Unterraum von W . f 0 v 0 f v 0W .

V , dann ist f 0V

5.1-14 Korollar: Sei f : V W ein Homomorphismus, und sei B eine Basis von V . Dann ist im f , d.h. im f wird von den Bildern f B f b b B der Elemente einer beliebigen Basis von V erzeugt.

f B

62

5.1-15 Probleme: Zeigen Sie: 1. Sei B eine Basis von V und f : V W ein Homomorphismus. Dann ist f ein Monomorphismus genau dann, wenn f B eine Basis von im f ist. 3. Ist f : V W ein Isomorphismus, so ist f B eine Basis von W . Insbesondere haben isomorphe R aume dieselbe Dimension. Hier ist ein weiterer mengentheoretischer Satz, das sogenannte Pigeon-Hole-Principle: Hat man n Tauben und sind n L ocher da, in die sich die Tauben uchten k onnen, so sitzt nach Ankunft des Fuchses in jedem Loch h ochstens eine Taube genau dann, wenn in jedem Loch mindestens eine Taube sitzt. 5.1-16 Lemma: Seien M und N endliche Mengen derselben M achtigkeit, und sei f : M Abbildung. Dann ist f injektiv genau dann, wenn f surjektiv ist. N eine 2. Ist f ein Monomorphismus, so ist f durch Einschr ankung des Wertevorrats ein Isomorphismus von V auf im f .

aume derselben endlichen Dimension u W 5.1-17 Satz: Seien V und W Vektorr ber K , und sei f : V ein Homomorphismus. Dann ist f genau dann ein Isomorphismus, wenn f ein Mono-, oder aquivalent dazu, ein Epimorphismus ist. So muss man also in dieser Situation lediglich entweder Injektivit at oder Surjektivit at nachpr ufen, um Bijektivit at zu beweisen, was manchmal auerst n utzlich ist. aumen? 5.1-18 Problem: Was ist mit unendlichen Mengen, unendlichdimensionalen Vektorr 5.1-19 Satz: Zwei Vektorr aume sind isomorph genau dann, wenn sie dieselbe Dimension uber K haben. 5.1-20 Probleme: 1. Sei B v1 , . . . , vn eine Basis von V . In 4.4-21 hatten wir eine Abbildung von V nach K n deniert, n n die v i 1 i vi auf 1 , . . . , n K abbildet. Wohin wird B abgebildet? Ist jene Abbildung linear? Ein Isomorphismus? 2. K onnen Sie jetzt pr azise formulieren, warum man nicht zwischen inneren und aueren direkten Summen unterscheiden muss? (Siehe 4.6-10 und 4.6-13). R3 gegeben durch die Bilder der nat urlichen Basis 3. Im folgenden sei eine lineare Abbildung f : R3 3 von R (in der nat urlichen Reihenfolge). Ist f ein Isomorphismus? (a) 1, 1, 1, 1, 0, 1, 0, 2, 0. (b) 2, 3, 1, 2, 2, 1, 2, 1, 2.

4. F ur welche nat urlichen Zahlen k, n sind Rk x und Rn isomorph? 5.1-21 Satz: Sei U V und sei W V U . Dann ist die Abbildung T :V ein Epimorphismus. Der Epimorphismus im obigen Satz heit kanonische Projektion von V auf W . In 4.7-7 haben wir gesehen, dass jede Nebenklasse v v U des Unterraums U von V ein fest gew ahltes Komplement W von U in V in exakt einem Element trit. Im Anschluss an Denition 4.7-8 hatten wir 63 W :v v vU

gesagt, dass V U genau so aussieht wie W . Der n achste Satz zeigt, was damit mathematisch wirklich gemeint ist: 5.1-22 Satz: Sei W ein Komplement des Unterraums U von V . F ur x V sei wx W das nach Satz 4.7-7 eindeutig bestimmte Element in x U W , und sei x x U . Dann ist : x wx ein Isomorphismus von V U auf W . Zwei lineare Transformationen spielen eine besondere Rolle: Die Nullabbildung und die Identit at. Die Nullabbildung von V nach W ist die lineare Transformation, die jeden Vektor von V auf den Nullvektor von W abbildet. Sie ist linear, nicht wahr? Sie wird gew ohnlich ebenfalls mit 0 oder mit 0V W bezeichnet. Die Identit at von V nach V ist ebenfalls linear und wird mit idV oder 1V bezeichnet. Wenn keine Missverst andnisse zu bef urchten sind, lassen wir die Indizes einfach weg. Beachte, dass unter einer Abbildung das Urbild eines Elements des Bildbereichs immer eine Teilmenge des Denitionsbereichs ist. Dieses Urbild wird auch Faser des Elements unter der Abbildung genannt. Bei linearen Transformationen spielt die Faser des Nullvektors eine besondere Rolle und erh alt daher einen besonderen Namen. Der Grund hierf ur ist, wie wir sehen werden, dass diese einen Unterraum bildet, und alle anderen Fasern als dazu parallele (ane) Unterr aume angesehen werden k onnen. 5.1-23 Denition/Satz: Sei f : V ker f W linear. Dann ist der Kern von f die Teilmenge f 1 0

v V

f v

0.

Der Kern von f ist ein Unterraum von V . 5.1-24 Probleme: Was ist der Kern der folgenden Homomorphismen? 1. Die Nullabbildung. 2. Die Projektion : V V U f ur U

3. Die lineare Transformation T von R6 x nach R7 x gegeben durch T px 4. Die Dierenziation auf R7 x. 6. T : Rx 7. f : R
2

V.

x9

ptdt.

5. Der Endomorphismus f von R2 gegeben durch f 1, 0 R : x, y


2

Rx : px

x, 0.

px .
2

2, 7 und f 1, 1 6, 2.

5.1-25 Satz: Sei f : V

W lineare Abbildung. Dann ist f injektiv genau dann, wenn ker f

0 ist.

5.2

Matrizen

Seien wieder V und W zwei K -Vektorr aume, K ein K orper. Wir wollen nun bis auf weiteres immer annehmen, dass V und W endlichdimensional u ber K sind. Wenn nicht, werden wir das extra anmerken. In Satz 5.1-11 haben wir gesehen, dass eine lineare Abbildung f : V W durch Angabe der Vektoren von W , auf die die Elemente einer Basis B von V unter f abgebildet werden, vollst andig bestimmt ist, und dass man diese Bilder beliebig vorgeben darf, um lineare Abbildungen von V nach W zu konstruieren. Wir werden uns das nun zunutze machen, um uns einen Uberblick u ber solche Abbildungen zu verschaen.

64

So sei B v1 , . . . , vn eine Basis von V und C w1 , . . . , wm eine solche von W . Sei f : V W ein Homomorphismus. Satz 5.1-11 sagt, dass wir lediglich die Bilder f vj W kennen m ussen, um f zu kennen. Denn dann ist n n f x

j f vj f ur

j vj

V.

j 1

j 1

ur j Die Bilder f vj f schreiben:

1, . . . , n kann man aber wieder als Linearkombination der Basis C von W

5.2-1 Denition: Sei f : V W lineare Abbildung und B Basen von V bzw. von W . F ur 1 j n sei f vj Das Rechteckschema

m i 1

v1 , . . . , vn und C w1 , . . . , wm seien

ij wi .

C, B
f

ij

11 21 . . . m1

12 22 . . . m2

... ... .. .

1n 2n . . .

. . . mn

heit Matrix der linearen Abbildung f bez uglich der Basen B und C von V bzw. W . Was bringt das? Zun achst ist klar, dass f durch nun mit f konkret rechnen. Denn wird haben:
f

C, B v ollig festgelegt ist. Zweitens l asst sich aber


n j 1

5.2-2 Lemma: Sei f und f C , B wie oben. Sei x man die Koezienten i wie folgt berechnet: i
n j 1

j vj , dann ist f x

m i 1

i wi , wobei

ij j .

Gegeben seien die Zahlen ij sowie die Koezienten j . Das folgende Kochrezept beschreibt, wie man leicht die Koezienten i berechnen kann: 5.2-3 Kochrezept: Man gewinnt den i-ten Koezienten i in f x i 1 i wi , indem man die i-te age zum Zeile der Koezientenmatrix ij f C , B nimmt, auf den Vektor 1 , . . . , n legt, Eintr selben Index multipliziert und dann aufsummiert. Man schreibt:

11 21 . . . m1

12 22 . . . m2

... ... .. . ...

1 1n 2 2n . . . . . . . . . mn n

1 2 . . . . m

65

5.2-4 Notation: Sei V ein K -Vektorraum mit Basis B abk urzend 1 2 v . . . n f ur v


n j 1 B

v1 , . . . , vn . So schreiben wir von nun an

j vj .

5.2-5 Bemerkungen: 1. Lemma 5.2-2 l asst sich dann wie folgt umschreiben: Sei v

2.

gibt das? Nun, der j -te Basisvektor vj ist die Linearkombination


. . . 0 1 0 . . .

K n. Dann ist f C, BvC f vB . Wenden wir obiges Kochrezept auf die Elemente der Basis B v1 , . . . , vn von V
0

selbst an. Was

vj

n k 1

k vk

ur k j und j 1, d. h. die 1 steht an der j -ten Stelle. mit k 0 f m So erhalten wir die Komponenten i in f vj i 1 i wi durch das Matrizenprodukt:

f vj

0 f 1 0 . . .

0 . . .

11 21 . . . m1

12 22 . . . m2

... ... .. . ...

. . 1n . 0 2n . 1 . . 0 mn . . . 0 si C .
C

1 2 . . . m
C

1j 2j . . . mj
C

Ist also si die i-te Spalte von

W und f idV ist? Das ist sicherlich nicht verboten. Die 3. Was passiert im Spezialfall, dass V Abbildungsmaschine idV C , B bewirkt hier lediglich, dass ein Vektor v V , der durch seine Komponenten bez uglich der Basis B gegeben ist, in die Basis C umgeschrieben wird, das heit, die Matrizenmultiplikation berechnet nun die Komponenten desselben Vektors v bez uglich der Basis C von V . Dies ist dann ein sogenannter Basiswechsel und idV C , B ist die Matrix des Basiswechsels:

B, C, dann ist f v
f j

id C , BvC
V

vB

66

5.2-6 Probleme: 1. K onnen zwei verschiedene Homomorphismen dieselbe Matrix haben? 2. Sei D : R5 x R4 x die Dierentiation. Was ist D E4 , E5 ? Wir setzen dabei hier (und im folgenden immer) pol En 1, x, x2 , . . . , xn1 , xn . En 3. Sei T : R3 x R2 x deniert durch T x2 T 1 0, T x 2 x2 ,

Sei B 1, 1 x, 1 x x2 . Was ist T B , E3 ? id B , E2 ? id B , B ? Was sind die Komponenten uglich der Basis B und bez uglich der Basis E2 von R2 x? von T 2 3x x3 bez 4. Sei B

x2 2x 1, T x3

2x 1.

v1 , . . . , vn Basis von V . Deniere T : V


1 . T . .

K n durch
n

i vi
n

1 . . . . n
En

Was ist

E , B, wobei E
T n

n
n

i 1 B

die nat urliche Basis von K ist?

aume. Dann wird die Menge der K -linearen 5.2-7 Denition: Seien V und W beliebige K -Vektorr Abbildungen von V nach W mit HomK V, W bezeichnet. Ist V W , so heien solche Homomorphismen auch Endomorphismen und man schreibt EndK V f ur die Homomorphismenmenge HomK V, V . 5.2-8 Denition: Eine m n-Matrix A u orper K ist ein rechteckiges Schema, das aus m n ber dem K doppelt indizierten Elementen ij des K orpers K besteht, mit 1 i m, 1 j n:

11 21 . . . m1

12 22 . . . m2

... ... .. .

1n 2n . . . .

. . . mn

Wir schreiben A ij ij ij . Die Matrix A hat m Zeilen und n Spalten . Diese Zeilen und Spalten lassen sich jeweils als Elemente des K n bzw. K m auassen (dessen Elemente man auch als Spalten schreiben kann, oder?). So ist der j -te Spaltenvektor sj von A

sj

1j 2j m . K . . mj

und der i-te Zeilenvektor z i von A ist

Ist n

i1 , i2 , . . . , in K n . m, so heit A quadratisch. Die Menge der m n-Matrizen u ber K wird mit Mmn K bezeichnet.
zi 67

5.2-9 Satz: Sei f : V A. Dann ist

W und A

C, B wie in
f

5.2-1. Seien s1 , . . . , sn die Spaltenvektoren von im f.

s1 C , . . . , sn C

5.2-10 Satz: Seien V und W mit Basen B und C wie oben. Dann ist

eine bijektive Abbildung mit Umkehrabbildung f C , B gegeben durch 1 . fA C , B . . n


B

C, B : Hom

V, W

Mmn K : f : Mmn K

C, B
f

HomK V, W : A

fA C , B

1 . A . . n
C

Hier ist eine erste Anwendung des bisher entwickelten Kalk uls, n amlich der Zusammenhang zwischen Matrizen und linearen Gleichungssystemen. Seien etwa m Gleichungen in den n Unbestimmten xj mit den Koezienten ij vorgelegt: 11 x1 21 x1 . . . m1 x1

12 x2 22 x2 . . . m2 x2

... ... ...

1n xn 2n xn . . . mn xn

1 2 . . . m

Wir bezeichnen dieses Gleichungssystem mit G. Nach unserem Kochrezept 5.2-3 k onnen wir dies umschreiben als

11 21 . . . m1 oder kurz als

12 22 . . . m2

... ... .. .

1n x1 x2 2n . . . . . . xn

1 2 . . . m

. . . mn

x1 x2 A . . .

1 2 . . . m

mit A

ij

x2 und der Spalte . , deren Eintr age die Variablen x1 , . . . , xn sind. . .

x1

xn

xn 5.2-11 Probleme: 1. Zeigen Sie, dass es zu jeder m n-Matrix A genau eine K -lineare Abbildung

gibt, sodass

fA : K n

Km

fA

Em , En

A ist.

68

2. Wenn man im Gleichungssystem G:

x1 x2 A . . . xn

1 2 . . . m

die Matrix A als Matrix einer linearen Abbildung wie im vorigen Problem interpretiert, wie l asst sich dann die L osung des Gleichungssystems G beschreiben? 3. Ist in G insbesondere j tung. Welche? 0 f ur alle j , so hat die L osungsgesamtheit von G eine besondere Bedeu-

5.3

Homomorphismen sind selbst Vektoren!

Wieder seien im folgenden V und W zwei K -Vektorr aume, die wir aber momentan nicht unbedingt als endlich erzeugt voraussetzen wollen. 5.3-1 Denition: Seien f, g HomK V, W und sei K . Die Summe f g und das skalare Vielfache f von f sind wie folgt deniert:

wobei v

V, K ist.

f gv f v

f v g v f v ,

5.3-2 Lemma: Seien f, g HomK V, W und sei K . Dann sind f g und f ebenfalls Homomor0V W : V W :v 0 ist das neutrale Element von phismen von V nach W . Die Nullabbildung 0 HomK V, W bez uglich der Addition, und 1f : V W :v f v ist das Inverse f von f . Die Menge HomK V, W bildet zusammen mit diesen Operationen ein K -Vektorraum. 5.3-3 Problem: Sei f : R2 R2 : , 2 , und g : R2 R2 : , , 2 . Was liegt nahe zu vermuten, wenn man f E2 , E2 , g E2 , E2 , f g E2 , E2 und 3f E2 , E2 berechnet?

5.3-4 Denition: Seien A ij ij und B ij ij m n-Matrizen u ber K und sei art: werden die Summe A B und das skalare Produkt A wie folgt erkl

Nun machen wir Mmn K ebenfalls zum K -Vektorraum:

K . Dann

11 21 . . . m1 und

12 22 . . . m2

... ... .. .

1n 11 21 2n . . . . . . m 1

12 22 . . . m 2

... ... .. .

1n 2n . . .

. . . mn

. . . mn

m1 m1

11 11 21 21 . . .

m2 m2

12 12 22 22 . . .

. . . mn mn

... ... .. .

1n 1n 2n 2n . . .

11 21 . . . m1

12 22 . . . m2

... ... .. .

1n 2n . . .

11 21 . . . m1

12 22 . . . m2

... ... .. .

1n 2n . . .

. . . mn 69

. . . mn

Kurz gefasst haben wir also:

ij ij ij ij ij ij ij

und ij ij

ij ij . 1n 2n

5.3-5 Satz: Die Menge Mmn K der m n-Matrizen uber K wird mit diesen Operationen ein K Vektorraum. Das Nullelement (die Nullmatrix 0) und die zu A inverse Matrix sind gegeben durch 0 0 . . . 0 0 0 . . . 0 ... ... .. . ... 0 0 . . . 0

und

A 1 A

11 12 21 22
. . . m1

die additive Inverse von A

ij .
1 1 2 1 0 1

. . . m2

... ... .. . ...

. . . mn

5.3-6 Problem: Sei A

und B

2 0

1
2

0 . Was ist A B und was 3A? 1

5.3-7 Satz: Sind V und W endlich erzeugt mit Basen B v1 , . . . , vn und C ist C , B : HomK V, W MmnK

w1 , . . . , wm . Dann

ein Isomorphismus von K -Vektorr aumen. Es ist wichtig festzuhalten, dass obiger Isomorphismus ganz wesentlich von der Wahl der Basen B und C abh angt! 5.3-8 Probleme: 1. Was geschieht mit der zugeordneten Matrix eines Homomorphismus, wenn man B oder/und C umordnet? 3. Finden Sie eine Basis von M22 K . 2. Was ist M12 K , M1n K und Mn1 K ? Basis?

4. Auf welche Homomorphismen werden diese Basiselemente von M22 K unter f C , B abgebildet?

C, B

5.3-9 Problem: Wie m ussten Matrizen f ur unendlich dimensionale Vektorr aume aussehen? ur 1 i m und 1 j n die 5.3-10 Satz: V , W , B und C seien wie immer. Wir denieren f m n-Matrix Eij kl kl durch kl 1 f ur i, j k, l und kl 0 sonst. So ist genau der i, j -te Eintrag in Eij gleich 1, alle anderen Eintr age sind 0, also

Eij

0 . . . . . . 0 . . . . . . 0

0 . . . 0 1 0 . . . 0 70

0 . . . . . . 0  i-te Zeile . . . . . . 0

j -te Spalte

Dann ist

Wenn keine Missverst andnisse zu bef urchten sind, schreiben wir in obigem Satz einfach E anstatt E m, n. W durch Wir denieren nun den Homomorphismus ij : V ij vk Dann gilt: ur 1 5.3-11 Satz: F i m und 1 j wi 0 f ur j f ur j k k.

Eij Mmn K eine Basis, die nat urliche Basis von Mmn K .

E m, n

m, 1

n haben wir:
ij

C , B

Eij .

Insbesondere gilt: 5.3-12 Korollar: Sei dim V n und dim W dim Mmn K m. Dann ist dim HomK V, W mn.

ij ij eine m n-Matrix u 5.3-13 Denition: Sei A ber K . Unter der transponierten Matrix At alt, wenn man die Rolle von Spalten und Zeilen versteht man die n m-Matrix, die man aus A erh vertauscht, d. h. At ji ij .
5.3-14 Probleme: 1. Sei A Was ist A ? 2. Zeigen Sie, dass 3. Was ist
t

1 2 2

2 1 11 8
2 1

0 1. 1

E 2, 2, E 2, 2?

: Mmn K

Mnm K : A

At lineare Abbildung ist.

4. Deniere

T : R2 x

M22 R : px

p 0 2p0 . 0 p 3

Zeigen Sie, dass T ein Homomorphismus ist und berechnen Sie die Matrix von T bez uglich der nat urlichen Basen E2 von R2 x und E 2, 2 von M22 R. Kann man das auch f ur die Menge aller reellen Polynome machen?

5.4

Komposition linearer Abbildungen

Wir starten nun mit drei Vektorr aumen, U , V und W u orper K . Wir wollen zun achst ber demselben K nicht voraussetzen, dass sie endlich erzeugt sind. Seien f : U V und g : V W Homomorphismen. Diese Abbildungen kann man hintereinander ausf uhren: W :u g f u. gf :U In 5.1-7 haben wir gesehen, dass diese neue Abbildung von U nach W ein Homomorphismus ist. 71

5.4-1 Problem: Ist kommutativ, distributiv u ber der Addition von Homomorphismen? Ist die skalare Multiplikation distributiv u ber der Addition von Homomorphismen? 5.4-2 Frage: Wir haben auf der Menge der Homomorphismen und auf der Menge der Matrizen jeweils eine Addition deniert, und gesehen, dass die bijektive Abbildung C , B diese Additionen respektiert. Nat urlich h atten wir auch das Pferd von hinten aufz aumen k onnen: Wir h atten nur eine Addition auf der Menge der Homomorphismen denieren k onnen, und uns dann fragen k onnen, wie dann die Addition auf den Matrizen h atte aussehen m ussen, damit die Abbildung C , B die Addition respektiert. Dann w are genau die Addition von Matrizen rausgekommen, die wir bereits kennen. Zwei Homomorphismen k onnen aber auch durch Hintereinanderausf uhrung multipliziert werden. Was muss man nun mit A f B , A und B g C , B anstellen, um die Matrix C gf C , A zu erhalten. Wie muss also ein Produkt von Matrizen aussehen, damit C , B die Multiplikation respektiert? Dieses Produkt sollte dann auch nur von A und B abh angen, und man sollte es berechnen k onnen, ohne irgendwelche Vektorr aume, Basen und Homomorphismen zu kennen.

5.4-3 Problem: Sei f : R2

R3 deniert durch f 1 , 2

1 2 , 2 , 1 2
auf Basisele-

und g : R3

menten.

1 3 , 1 2 3 . Berechnen Sie f E3 , E2 , g E2 , E3 und dann gf E2 , E2 durch Auswerten von g f

R2 durch

g 1 , 2 , 3

Wir betrachten nun drei endlich erzeugte K -Vektorr aume U , V , W : Seien A u1 , . . . , un, B aume. Gegeben seien lineare Abbildungen f : v1 , . . . , vp bzw. C w1 , . . . , wm Basen dieser Vektorr U V und g : V W und wir wollen die Matrix C der Komposition g f : U

ij ij kl kl rsrs
kl vk

C, A
g f

W direkt aus den Matrizen A

B, A
f

und B berechnen. Nach Denition ist f ul Wir haben daher g f ul


p p k 1

C, B
g m r 1

und g vs

rs wr .

kl g vk rk kl

p m k 1r 1

kl rk wr

k 1 p m r 1 k 1

wr ,

72

und andererseits wegen der Denition von C

C, A:
g f m r 1

g f ul

rl wr .

w1 , . . . , wm linear unabh angig ist, erhalten wir nun folgende Formel f ur die Berechnung der Da C Eintr age der Matrix C aus denen von A und B :
rl
p k 1

rk kl .

5.4-4 Denition/Satz Matrizenmultiplikation: 1. Seien B

rk MmpK und A kl Mpn K Matrizen, dann ist mit Hilfe der Formel
rl
p k 1

rk kl .

(5.1)

eine Matrix C rl gegeben. C ist dann das Produkt der Matrizen B und A und man schreibt C B A BA. V und 2. Seien A, B , und C endliche Basen der Vektorr aume U , V bzw. W , und seien f : U g:V W Homomorphismen. Dann ergibt sich die Matrix C rl als Produkt gf C , A rk und A kl : der Matrizen B g C , B f B , A

C, A
g f

C, B B, A.
g f

5.4-5 Bemerkung: 1. Man erh alt also den r, l-ten Eintrag rl der Produktmatrix C BA, indem man sich die r-te Zeile von B nimmt, auf die l-te Spalte von A legt, entsprechende Eintr age multipliziert und dann aufsummiert. 2. Insbesondere muss die Zeilenl ange von B (= Anzahl der Spalten von B ) mit der Spaltenl ange von A (= Anzahl der Zeilen von A) u bereinstimmen. Man kann nicht beliebige Matrizen miteinander multiplizieren. 3. Die Produktmatrix hat die Spaltenl ange von B und die Zeilenl ange von A. 4. Das Kochrezept 5.2-3

11 21 . . . m1 mit ij

12 22 . . . m2

... ... .. .

1n 1 2 2n . . . . . . n
m i 1

1 2 . . . . m
n j 1

C, B zur Berechnung von f x


f

. . . mn

i wi f ur x

j vj ist von der Form:

m n-Matrix n 1-Matrix m 1-Matrix.

Denition/Satz 5.4-4 besagt gerade, dass die Komposition von Abbildungen der Matrizenmultiplikation auf der Matrizenseite entspricht.

73

5.4-6 Problem: Sind B und C Basen von V und , C , B C , B ?

EndK V . Welche Bedeutung hat das Produkt

Wir wollen nun vereinbaren, dass wir, wenn wir ein Produkt AB von Matrizen A und B hinschreiben, immer implizit annehmen, dass die Zeilenl ange von A mit der Spaltenl ange von B u bereinstimmt, so dass das Produkt wirklich deniert ist. Sollten wir das einmal nicht voraussetzen wollen, werden wir es extra sagen. 5.4-7 Problem: Sei

A C

1 2

2 1 , 1 2

B 4 , 0

1 4

0 1

3
2

1 1

2.

Berechnen Sie A2B 3C , AB D und ABD. 5.4-8 Probleme: 1. Ist die Matrizenmultiplikation kommutativ? 2. Ist die Matrizenmultiplikation assoziativ, distributiv u ber der Addition? 3. Sei A und C Berechnen Sie At , At B , BC t , CB t und CA.

2 5 3 1, 4 2

3 1 5 3 .

2 1
5

0 4 3

4 0

4. Zeigen Sie: F ur Matrizen A und B und K ist AB 5. Gibt es eine Matrix E , sodass AE

AB

AB .

A ist f ur alle Matrizen A der passenden Gr oe?

5.5

Endomorphismenringe

Zwei Homomorphismen eines Vektorraums V in sich, d. h. zwei Endomorphismen von V , k onnen immer hintereinander ausgef uhrt werden und ergeben wieder einen Endomorphismus von V . Was entspricht dieser Tatsache auf der Matrizenseite? Nat urlich quadratische Matrizen derselben Gr oe k onnen immer miteinander multipliziert werden, und man erh alt als Produkt wieder eine quadratische Matrix derselben Gr oe. Mit anderen Worten: 5.5-1 Satz: Die Hintereinanderausf uhrung von Homomorphismen eines Vektorraums V in sich ist eine bin are Operation auf EndK V . Diese ist assoziativ und distributiv auf beiden Seiten uber der Addition. Der Endomorphismus idV ist das neutrale Element bez uglich der Komposition von Endomorphismen. Dazu gilt f ur f, g EndK V und K : f

g f g

g.

Beachte, dass V hier nicht notwendigerweise endlich erzeugt ist. Mit Hilfe des Isomorphismus ur Homomorphismen auf Matrizen C , B kann man die Resultate f u bertragen: 74

5.5-2 Satz: Sei n N. Dann deniert die Matrizenmultiplikation eine bin are Operation auf der Menge Mn K Mnn K der n n-Matrizen u ber K . Diese ist assoziativ und distributiv auf beiden Seiten u ber der Addition von Matrizen. Die Matrix

En

1 0 . . . 0

0 1 . . . 0

... ... .. . ...

0 0 . . . 1

ist neutrales Element bez uglich der Multiplikation. Sind A und B n n-Matrizen und ist K , so ist: AB

AB

AB .

Wir haben es jetzt also mit Vektorr aumen zu tun, die noch zus atzlich eine Multiplikation zulassen. Solche Strukturen haben einen extra Namen: Ringe bzw. K -Algebren . 5.5-3 Denition: 1. Ein Ring ist eine abelsche Gruppe R, mit einer assoziativen bin aren Operation R R R: r, s r s rs, genannt Multiplikation , die auf beiden Seiten distributiv u ber der Addition ist. Hat R eine neutrales Element bez uglich der Multiplikation, so wird dieses Einselement genannt und gew ohnlich mit 1R oder nur 1 bezeichnet. Man spricht dann auch von einem Ring mit Eins . Ein Ring mit kommutativer Multiplikation heit kommutativer Ring . 2. Eine K -Algebra ist ein K -Vektorraum A, der zugleich ein Ring mit Eins ist, sodass gilt: ab

ab

ab

a, b A, K.
a0 0 f ur alle a R.

5.5-4 Problem: Zeigen Sie: Ist R ein Ring, dann ist 0a

5.5-5 Beispiel: Beispiele f ur kommutative Ringe sind Z, R und etwa der Ring der (stetigen, dierenzierbaren) reellen Funktionen, mit der u blichen punktweisen Multiplikation von Funktionen. Alle diese Ringe haben Einselemente, welche sind das? Bis auf Z sind auch alle diese Ringe R-Algebren. amlich Der Vektorraum der m n-Matrizen wird zur kommutativen K -Algebra, wenn man eine andere, n die punktweise Multiplikation der Matrizen A ji und B ji aus Mmn K wie folgt deniert: A B

ji

mit

ji

ji ji

i, j.

Diese K -Algebra ist aber f ur unsere Zwecke uninteressant. 5.5-6 Problem: Sei R die Menge der reellen Funktionen. Ist R mit punktweiser Addition und Komposition als Multiplikation ein Ring? 5.5-7 Satz: Sei K ein K orper und sei V ein K -Vektorraum. Dann ist EndK V eine K -Algebra, wobei die Multiplikation zweier Endomorphismen von V als Komposition deniert ist. Ahnlich haben wir nun f ur die Menge der n n-Matrizen: 5.5-8 Satz: Sei n N. Die Menge Mn K der n n-Matrizen ist eine K -Algebra der Dimension n2 bez uglich der in 5.4-4 erkl arten Matrizenmultiplikation. In 5.3-7 haben wir festgestellt, dass C , B ein Vektorraumisomorphismus von HomK V, W auf Mmn K ist. Wie sieht es nun mit der zus atzlichen Struktur einer K -Algebra aus? 75

5.5-9 Probleme: 1. Wie sollte man Homomorphismen von Gruppen denieren? 2. Wie sehen Kerne von solchen Homomorphismen aus? 3. Ist das Bild einer abelsche Gruppe unter einem Homomorphismus abelsch? 4. Was sind Epimorphismen, Monomorphismen, Isomorphismen von Gruppen? 5. Nun dieselben Fragen f ur Ringe anstatt Gruppen. 6. Und nochmals: Dasselbe f ur K -Algebren. 5.5-10 Satz: Sei V ein K -Vektorraum der Dimension n mit Basis B . Dann ist

B, B : End

M n K : f

B , B
f

ein Isomorphismus von K -Algebren. 5.5-11 Problem: Was erh alt man, wenn man in obigem Satz eine der beiden Basen B durch eine andere Basis C von V ersetzt?

5.6

Automorphismen und invertierbare Matrizen

In diesem Abschnitt wollen wir Isomorphismen und ihre Matrizen genauer untersuchen. Wir beginnen mit einem ganz allgemeinen Resultat: 5.6-1 Denition/Satz: Sei A eine K -Algebra (Ring) mit einem Einselement. Dann heit a A invertierbar oder Einheit, falls es ein multiplikatives Inverses zu a gibt, d. h. falls es ein Element b in A gibt, sodass ab ba 1 ist. Wir schreiben dann wie ublich b a1 . Die Menge der invertierbaren Elemente von A ist multiplikativ abgeschlossen und bildet mit der Multiplikation eine Gruppe, die Gruppe U A der Einheiten oder Einheitengruppe in A. B ein K -Algebrahomomorphismus Ist B eine weitere K -Algebra (bzw. ein weiterer Ring), und ist f : A (Ringhomomorphismus), so ist f U A U B und die Einschr ankung f U A von A auf U A ist ein Gruppenhomomorphismus von U A in die Einheitengruppe U B von B . Ist f ein Isomorphismus, so auch f U A . Wenn keine Missverst andnisse zu bef urchten sind, bezeichnen wir die Einschr ankung einer Abbildung f auf eine Teilmenge des Denitionsbereichs wieder mit f . Sei V wieder ein n-dimensionaler Vektorraum u ber K mit Basis B . Wir haben gesehen, dass ein Endomorphismus von V genau dann invertierbar ist, wenn er ein Isomorphismus, d. h. ein Automorphismus ist. Der obige Satz besagt nun, dass die Menge AutK V der invertierbaren Elemente von EndK V eine Gruppe bez uglich der Komposition von Abbildungen bildet. Nat urlich ist diese nicht abgeschlossen bez uglich der Addition (aber bez uglich der Multiplikation mit Skalaren 0). Die Einheitengruppe U Mnn K der K -Algebra Mnn K wird mit GLn K bezeichnet. Nach Obigem induziert B , B durch Einschr anken einen Gruppenisomorphismus von AutK V auf GLn K .

5.6-2 Denition: Seien A und B K -Algebren (Ringe). Eine K -lineare Abbildung f : A Antihomomorphismus , falls f ab f bf a

B heit

ist f ur alle a, b A. Analog denieren wir Antimono-, Antiepi- und Antiisomorphismen und Antimorphismen f ur Gruppen.

76

5.6-3 Probleme: 1. Was sind Antihomomorphismen von abelschen Gruppen? 2. Inverse zu nehmen ist ein Antiautomorphismus von Gruppen. 5.6-4 Satz: Sei n N. Dann ist das Transponieren
t

: Mnn K

Mnn K : A

At

ein Antiautomorphismus. Seine Einschr ankung auf invertierbare Matrizen ist ein Antiautomorphismus von GLn K , und es gilt: ur alle A GLn K . At 1 A1 t f

5.7

Der Rang einer Matrix

V und W sind nun K -Vektorr aume mit Basen A und B . In Satz 5.2-10 haben wir gesehen, dass B , A ein Isomorphismus zwischen der Menge der Homomorphismen und der Menge der m n-Matrizen ist (mit n dim V und m dim W ). Oft will man aber Basen von V und W so nden, dass die Matrix eines gegebenen Homomorphismus von V nach W bez uglich dieser Basen besonders sch on wird. Wir wollen W festh alt und also nun der Frage nachgehen, was passiert, wenn man den Homomorphismus f : V die Basen A, B variiert. Welche Matrizen erh alt man?

5.7-1 Denition: Sei f : V W ein Homomorphismus. Dann ist f , A die Menge aller m nMatrizen der Form B , A , wobei B alle Basen von W durchl auft. Analog werden f f B , und , deniert. f

5.7-2 Probleme: 1. Was ist


0

2. Ist die Abbildung von der Menge der Paare A, B in die Menge der Matrizen, die A, B auf abbildet, injektiv? Oder Surjektiv?

, A, B, , , ?
0 0

ur zwei Homomorphismen zueinander? 3. Wie verhalten sich die Mengen f , und g , f Sind diese Mengen in irgendeinem Sinne gleich gro?

A, B
f

4. Was passiert, wenn man zus atzlich zu f nun eine der beiden Basen festh alt? 5. Warum besteht

idV

, aus invertierbaren Matrizen?


AB

F ur zwei Teilmengen A, B eines Rings R sei

ab

a A, b B , a A.

und ahnlich f ur r

ra a A, und Ar ar Wir wollen nun die Mengen f , exakt bestimmen.


rA

R sei

77

5.7-3 Satz: 1. Ist f HomK V, W , dann ist A von V und B von W . 2. Seien f, g : V

,
f f f

GLm K

B, A GL K f ur jede Wahl von Basen


f n

W Homomorphismen. Dann ist entweder


g

So haben wir auf Mmn K eine Aquivalenzrelation A B

, , , , .
g

oder

deniert durch: A, B

HomK V, W :

f ur m n-Matrizen A und B .

f ,
B genau dann, wenn es X

5.7-4 Korollar: Seien A und B zwei m n-Matrizen. Dann ist A GLm K und Y GLn K gibt, sodass B XAY ist.

5.7-5 Denition: Sei A Mmn K . Dann ist der Spaltenrang von A die Dimension des von den Spaltenvektoren aufgespannten Unterraums des K m . Analog ist der Zeilenrang von A deniert. Im folgenden sind V, W, U, . . . endlich dimensionale Vektorr aume u orper K . Wir w ahlen ber einem festen K Basen A, B , C , . . . von V , W , U , . . . . 5.7-6 Lemma: Sei f : V der Dimension von im f . W ein Homomorphismus. Dann ist der Spaltenrang von

B, A gleich
f f

5.7-7 Korollar: Sei f : V W ein Homomorphismus. Dann haben alle Matrizen in denselben Spaltenrang gegeben durch die Dimension von im f . 5.7-8 Problem: Gibt es eine ahnliche Interpretation f ur den Zeilenrang?

Das bedeutet, dass zwei Matrizen mit verschiedenem Spaltenrang nicht aquivalent unter sein k onnen. Gilt auch die Umkehrung, n amlich, dass Matrizen, die nicht aquivalent sind, auch verschiedenen Spaltenrang haben, bzw. dass Matrizen mit gleichem Spaltenrang aquivalent sind? Der n achste Satz zeigt dies: W ein Homomorphismus und sei k die Dimension des Bildes von f . Dann ist 5.7-9 Satz: Sei f : V folgende Matrix Emn k in f , enthalten:

Emn k

1 0 . . .

0 0 . . .

0 1 . . . 0 0 . . . 0

... ... .. . ... ... . . . ...

0 0 0 0 . . . . . . 1 0 0 0 . . . . . . 0 0

... 0 . . . 0 . . . . . .

. . . 0 , . . . 0 . . . . . . ... 0

mit k vielen Einsen.

78

Diese Matrix hat Spalten- und Zeilerang k , und daher besteht die Spaltenrang k haben. 5.7-10 Korollar: Ist f : V

, genau aus allen m n-Matrizen,


f

W lineare Abbildung, dann ist dimK im f dimK ker f dimK V .

uberein. 5.7-11 Korollar: Spalten- und Zeilenrang von Matrizen stimmen So brauchen wir zwischen Spalten- und Zeilenrang nicht mehr zu unterscheiden und sprechen einfach vom Rang einer Matrix A. Dieser wird mit rgA bezeichnet. Seien n und m nat urliche Zahlen und sei k die kleinere von beiden. Dann hat Mmn K genau k 1 Aquivalenzklassen amlich uglich , n i bez

A Mmn K

rgA

i,

wobei i von 0 bis k l auft. Wir wenden uns nun der Frage zu, wie wir den Rang einer Matrix A konkret ausrechnen k onnen. Die Idee ist, A als Matrix f B , A eines Homomorphismus f aufzufassen, und dann durch vorsichtiges Ab andern der Basen A und B die Matrix zu ver andern bis sie die Form Emn k f ur ein k hat. Dabei bleibt ja der Rang konstant und wir k onnen schlieen, dass A den Rang k hat. Mit anderen Worten: Wir konstruieren Basen A und B , sodass Emn k f B , A

ist. 5.7-12 Probleme: F ur die folgenden Probleme sei A v1 , v2 , . . . , vn eine fest gew ahlte geordnete Basis eines K -Vektorraums V . Sei A eine Teilmenge von V , die durch Modikation von A entsteht, n amlich durch (a) Multiplikation eines vi mit einem Skalar 0 (b) Das Vertauschen zweier Vektoren in A. K. i, j n, i j mit K .

(c) Das Ersetzen von vi durch vi


2. Wie sieht die Matrix M

1. Zeigen Sie, dass A eine Basis ist.

vi vj f ur 1

4. Nun sei A eine n m-Matrix. Was ist M A?

3. Sei A eine m n-Matrix. Beschreiben Sie AM .

idV

A, A und ihre Inverse aus?

Wir denieren nun einige Operationen auf den Zeilen und Spalten einer Matrix: 5.7-13 Denition: Sei A eine m n-Matrix. Dann werden folgende Manipulationen als elementare Zeilenoperationen bezeichnet: 1. Multiplikation einer Zeile mit einem Skalar 0. 2. Vertauschen zweier Zeilen. 3. Addition eines Vielfachen der j -ten Zeile zur i-ten Zeile f ur 1

i, j

m, i

j.

79

Elementare Spaltenoperationen werden analog deniert. Elementare Zeilen- und Spaltenoperationen zusammen heien elementare Operationen . Wie wir gesehen haben, entspricht die Anwendung einer elementaren Operation auf eine Matrix A dem Produkt AM (f ur Spaltenoperationen) bzw. M A (f ur Zeilenoperationen) mit einer geeigneten invertierbaren Matrix M , die man als Basiswechselmatrix auassen kann. Solche speziellen Basiswechselmatrizen heien auch Elementarmatrizen . 5.7-14 Satz: Unter elementaren Operationen bleibt der Rang einer Matrix erhalten. 5.7-15 Satz: Sei A ij eine m n-Matrix uber K . Dann gibt es eine Reihe von elementaren Operationen, die, wenn man sie auf A anwendet, die Matrix Emn k produzieren, wobei k rgA ist. 5.7-16 Folgerungen: 1. Sei A GLn K . Dann ist rgA n und daher A Enn n. Genauer: Ist A eine n n-Matrix, so ist A genau dann invertierbar, wenn sie Rang n hat. En ist die Einsmatrix. rgAt . 3. Jede invertierbare Matrix ist Produkt von Elementarmatrizen. 4. Sei A Mmn K . Dann ist rgA 5.7-17 Probleme: 1. Bestimmen Sie den Rang der Matrix

2. Enn n

3 5 1 0

2 6 4 1

4 7 . 1 0

2. Seien A und B Matrizen, deren Produkt deniert ist. Zeigen Sie dass rgAB minrgA, rgB

ist, wobei wir mit min S das kleinste Element in einer endlichen linear geordneten Menge S bezeichnen. 3. Wahr oder falsch? Elementarmatrizen sind quadratisch. Elementarmatrizen haben nur Nullen und Einsen als Eintr age. Das Produkt (die Summe) zweier Elementarmatrizen ist eine Elementarmatrix. Die Transponierte einer Elementarmatrix ist eine ebensolche. Elementarmatrizen sind invertierbar und ihre Inversen sind ebenfalls Elementarmatrizen. Erh alt man B aus A durch elementare Spaltenoperationen, so erh alt man A aus B ebenfalls durch elementare Spaltenoperationen. (g) Die Einsmatrix ist eine Elementarmatrix. (h) Elementare n n-Matrizen haben Rang n. (a) (b) (c) (d) (e) (f)

80

4. Was ist der Rang von A

0 4 8 6

2 4 2 3

4 4 0 2

2 8 10 9

2 0 ? 2 1

5. Zeigen Sie: Eine invertierbare Matrix kann durch elementare Spaltenoperationen (Zeilenoperationen) in die Einsmatrix E transformiert werden. Mit Hilfe elementarer Zeilenoperationen kann man einen Algorithmus zur Berechnung der Inversen einer invertierbaren Matrix entwickeln.

kl MmpK . Die augmentierte Matrix 5.7-18 Denition: Sei A ji Mmn K und B A B erh alt man durch Aneinanderf ugen der Spalten von A und B : 11 12 1n 11 12 1p 21 22 2n 21 22 2p

. . .

. . .

m1

m2

Sei nun A eine invertierbare n n-Matrix. Wir bilden die augmentierte n 2n-Matrix C A En . Wie wir gesehen haben, l asst sich A, also auch A1 , als Produkt von Elementarmatrizen Ei schreiben: A1 Ep Ep1 E1 , A1 C

. . .

. . .

. . .

mn

m 1

m 2

. . .

mp

und wir haben daher

Man kann also A En durch eine Folge elementarer Zeilenoperationen in En A1 transformieren. Man erh alt also A1 indem man die Einsmatrix neben A hinschreibt und dann durch elementare Zeilenoperationen A in die Einsmatrix transformiert und dabei dieselben elementaren Operationen auf die Einsmatrix anwendet. 5.7-19 Beispiel: Sei

Ep Ep1 E1 A En

En A1 .

0 2 2 4 3 3

4 2, also C 1

0 2 3

2 4 4 2 3 1

1 0 0

0 0 1 0 . 0 1

Wir f uhren nun folgende elementare Zeilenoperationen auf den Zeilen z1 , z2 , z3 von C aus:

0 2 2 4 3 3 0 ; 1 0

4 2 1

1 0 0 1 0 0 2 1 2
1 2

0 1 2 0 1 2 1 0
1 2

1 2 3 1 2 4 0 0 1

0 0
1 2

3 2

1 2 ; 0 1 0 0 1 2 ; 0 1 0 0

0
1 2 3 2

3 8 1 4
3 8

3 2
7 8 3 4 3 8

0 0 1 1 4

0 1 0 ; 0 1 0

0 ; 1 3

1 2 2 1 3 1 2 1 3

1 2

0
1 2

0 0 1 2 2 1 2 1 0
1 2 3 8

0 0
1 2

0 0 3 1
1 2

0
1 2

3 2
0

1 4 1 2
1 4

1 2 ; 0 1 0 0 1 ; 0 0

0 0 1 0 0 1

1 8 1 4 3 8

1 3 8 4 5 8

0 0
3 4 1 2 1 4

0 0 3 1

3 8

3 4

81

Also gilt A1

1 8 1 4 3 8

5 8 3 8
3 4

3 4 1 2 1 4

82

Kapitel 6

Lineare Gleichungssysteme
Ein lineares Gleichungssystem G bestehend aus m Gleichungen in n Unbestimmten xj , 1 Koezienten ij in K (wobei wie immer K ein K orper ist) hat die Form: 11 x1 12 x2 21 x1 22 x2 . . . . . . m1 x1 m2 x2 j n, mit

1n xn 2n xn

mn xn

. . .

1 2 . . . m

mit i K . In diesem Kapitel wollen wir die Theorie der linearen Abbildungen dazu benutzen, solche Systeme zu l osen. Wir beginnen mit einigen theoretischen Vorbereitungen und diskutieren dann in einem zweiten Abschnitt praktische Algorithmen.

6.1

Theoretisches
Ax b

Als erstes schreiben wir das Gleichungssystem G oben in eine Matrixgleichung um:

mit x

x1 x2 n . K , . . xn

1 2 m . K und A . . m K m durch x K n. A.

ij Mmn K .

Wir denieren nun den Homomorphismus fA : K n fA x Nach Satz 5.2-10 haben wir dann:

Ax f ur

fA

E m , E n

Die Abbildung fA heit der zu G geh orende Homomorphismus. Man beachten, dass dieser nicht von dem Vektor b abh angt.

83

6.1-1 Beobachtung: Die L osungsgesamtheit des Gleichungssystems G besteht aus allen Vektoren in 1 der Faser fA b. 6.1-2 Denition: Sei das lineare Gleichungssystem G : Ax so heit G homogen sonst inhomogen . Im inhomogenen Fall b das zu G geh orende homogene System . b wie oben gegeben. Ist b der Nullvektor, 0 heit das Gleichungssystem H : Ax 0

6.1-3 Satz: Die L osungsgesamtheit eines homogenen linearen Gleichungssystems Ax Km : x aus den Vektoren in ker fA f ur den zugeh origen Homomorphismus fA : K n

0 besteht genau Ax.

Insbesondere ist dies ein linearer Unterraum von K n der Dimension n rgA, und es gen ugt, eine Basis desselben zu nden. Eine L osung gibt es f ur ein homogenes System immer, n amlich den Nullvektor x 0. Diese nennt man die triviale L osung. 6.1-4 Korollar: Das homogene System H : Ax 0 hat genau dann nichttriviale L osungen, wenn der zugeh orige Homomorphismus fA nicht injektiv ist. Die Menge der L osungen von H ist ein Unterraum von K n der Dimension n rgA. So hat, falls der K orper K unendlich viele Elemente besitzt, H entweder eine oder unendlich viele L osungen. 1 b von G wird nun mit LG bezeichnet. Zwei Gleichungssysteme G und G Die L osungsgesamtheit fA heien aquivalent, falls LG LG ist. Die Spaltenvektoren von A werden mit s1 , . . . , sn bezeichnet und als Elemente von K m aufgefasst. 6.1-5 Satz: F ur das Gleichungssystem G : Ax lent: 1. G besitzt eine L osung. 3. rgA 2. b im fA . rgA b. rgA ist. ugen der Spalte b zur Matrix A (vgl. Erinnerung: Die augmentierte Matrix A b entsteht durch Hinzuf 5.7-18). 6.1-6 Satz: Sei x0 eine L osung des Systems G. Dann ist LG Hier sind noch zwei leichte Folgerungen: 6.1-7 Korollar: Sei G : Ax b ein lineares Gleichungssystem von n Gleichungen in n Unbestimmten. Dann hat G eine eindeutige L osung genau dann, wenn A invertierbar ist. In diesem Fall ist die L osung gegeben durch: x A1 b. x0 ker fA . rgA b b mit A Mmn K sind folgende Aussagen aquiva-

Dar uberhinaus hat das System G hat genau dann eine eindeutige L osung, wenn n

84

6.1-8 Korollar: Sei m n und sei H : Ax 0 ein homogenes System von m Gleichungen in n Unbestimmten. Dann hat H nichttriviale L osungen.

6.2

Konkretes

Wir wollen nun zur L osung linearer Gleichungssysteme einen Algorithmus erarbeiten. Wir beginnen mit einem Problem, wobei G : Ax b wieder das System von m Gleichungen in n Unbestimmten mit Koezientenmatrix A ji sei: Sie erinnern sich sicher aus der Schule, dass man mit Systemen von Gleichungen folgende Man over durchf uhren darf: 1. Multiplikation einer Gleichung mit einem Skalar 3. Und sicher darf man Gleichungen vertauschen. Alle anderen Operationen lassen sich auf diese zur uckf uhren. 6.2-1 Satz: Sei G : Ax b ein lineares Gleichungssystem mit A Mmn K . Ergibt sich die mn1Matrix A b aus A b durch elementare Zeilenoperationen, so ist LG LG , wobei das Gleichungssystem G durch G : A x b gegeben ist. Ergibt sich A aus A durch eine Permutation der Spalten von A, und bezeichnet G das Gleichungssystem A x b, so erh alt man LG , indem man auf die Komponenten eines jeden L osungsvektor x0 von G die inverse Permutation 1 anwendet. 6.2-2 Bemerkung: Beachten Sie, dass Zeilenoperationen einen Basiswechsel im Bildraum K m darstellen und daher durch Linksmultiplikation mit den entsprechenden Basiswechselmatrizen produziert werden k onnen. Solange wir die Basis En unseres Ursprungraumes beibehalten, andern wir die L osungsmenge nicht. Ein Basiswechsel in K n hingegen andert die L osungen. Die einzige Spaltenoperation, die wir (wenns gar nicht anders geht) daher zulassen wollen, ist die Vertauschung von Spalten. Dies entspricht dann dem Vertauschen der entsprechenden Variablen, und dies m ussen wir dann am Ende r uckg angig machen. 6.2-3 Problem: Warum kann man alle diese Vertauschungen von Spalten dann zu einer einzigen Permutation der Spalten zusammenfassen (die man jederzeit, vor/ nach/ zwischen den Zeilenoperationen anwenden kann)? Wie wir sehen werden, gen ugen diese Operationen, um A, b in eine Gestalt zu transformieren, dass wir alle L osungen von G unmittelbar hinschreiben k onnen. 6.2-4 Problem: In Satz 5.7-9 hatten wir eine spezielle Wahl von Basen in V und W vorgenommen, um eine besonders sch one Matrix eines gegebenen Homomorphismus f : V W zu produzieren. Nun k onnen wir lediglich solche Basiswechsel vornehmen, die elementaren Zeilenoperationen und einer Permutation der Spalten von A entsprechen. Die resultierende Matrix ist nicht mehr ganz so sch on und wird im folgenden Satz 6.2-5 beschrieben. Zeigen Sie mit einem abstrakten Argument, dass eine solche Matrix durch obige eingeschr ankten elementaren Operationen erreicht werden kann. 0.

2. Addition eines Vielfachen einer Gleichung zu einer anderen.

85

6.2-5 Satz: Sei G : Ax b ein lineares Gleichungssystem mit A Mmn K . Dann kann die augmentierte Matrix A b durch Zeilenoperationen und die Anwendung einer Permutation der Spalten von A auf folgende Gestalt A b gebracht werden:

1 0 . . .

0 1 0 0


.. .

0 0 1 0

0 0 0 . . .

0 0 . . . 0 1 0 . . . 0

r1,r1 r,r1 0 . . . 0 l

1,r1 2,r1 . . .

r1,n r,n 0 . . . 0 i

1,n 2,n . . .

1 r r 1 r . . .

1 2 . . .

, 1 k r, r 1 mit gewissen Skalaren kl und i Matrix A (und daher ist insbesondere r n).

n und 1

m. Hierbei ist r der Rang der

Aus den obigen Erkenntnissen wissen wir, dass wir aus den L osungen von G : A x b die L osungen von G zur uckgewinnen k onnen. Daher wollen wir nun die L osungsgesamtheit von G beschreiben: 6.2-6 Satz: Sei G : Ax

b ein Gleichungssystem, sodass A b die folgende Form hat: 1 0 0 1 . . .


0 0 0 . . .


.. .

0 0 0 0 . . . 1 0 0 1 0 . . . 0

0 0

r1,r1 r,r1 0 . . . 0

1,r1 2,r1 . . .

r1,n r,n 0 . . . 0

1,n 2,n . . .

r1 . r r1 . . .

1 2 . . .

Dann ist G genau dann l osbar, wenn r1 r2 m 0 ist, und in diesem Fall besteht die L osungsgesamtheit LG des Systems aus allen Vektoren der Form: x mit 1 , 2 , . . . , s x0 1 x1 2 x2 s xs rgA. Die Vektoren xi , i

K, s

n r und r

0, 1, . . . , s sind wie folgt deniert:

x0

2 . . . . . . r K n 0 . . . . . .

1,ri 2,ri

und

xi

. . . r,ri 0 . n . K . 0 1 r i -ter Eintrag 0 . . .

0 86

f ur i 1, 2, . . . , s, wobei der Eintrag 1 in xi in Position r i steht. Dabei ist x0 eine spezielle L osung und die xi , i 1, 2, . . . , s spannen ker fA auf. Es ist nun klar, wie wir im allgemeinen vorzugehen haben: 6.2-7 Kochrezept: Vorgelegt sei ein Gleichungssystem G : Ax b. Wir bilden die augmentierte Matrix C A b. Ist die erste Spalte von C eine Nullspalte, so vertauschen wir sie mit der ersten Spalte vom A-Teil von C , die nicht die Nullspalte ist (ist A die Nullmatrix, so sind wir fertig). Dann erreichen wir durch eine Permutation der Zeilen von C , dass an Position 1, 1 ein K orperelement verschieden von 0 steht. Durch Abziehen geeigneter Vielfacher der ersten Zeile von den ubrigen erreichen wir, dass in der ersten Spalte bis auf den ersten Eintrag nur Nullen stehen. Wir dividieren die erste Zeile durch den Skalar an Position 1, 1. Nun fahren wir mit der zweiten Spalte ahnlich fort, wobei unsere Zeilenoperationen zun achst nicht mehr die erste Zeile involvieren. Am Schluss steht an Platz zwei der zweiten Spalte eine Eins und man kann durch Abziehen eines geeigneten Vielfachen der zweiten von der ersten Zeile erreichen, dass diese Eins der einzige Eintrag in der zweiten Spalte ist. Die erste Spalte bleibt dabei fest. Wir fahren mit den folgenden Spalten und Zeilen fort atzen gegeben ist, wobei wir und enden mit einer Matrix C A b der Form, wie sie in den vorigen S uns dabei die ausgef uhrten Spaltenvertauschungen merken:

1 0 0 1 . . .
0 0 0 . . .


.. .

0 0 0 0 . . . 1 0 0 1 0 . . . 0

0 0

r1,r1 r,r1 0 . . . 0

1,r1 2,r1 . . .

r1,n r,n 0 . . . 0

1,n 2,n . . .

1 r r 1 r . . .

1 2 . . .

0 f Ist i ur ein r 1 i m, so ist das System nicht l osbar. Sonst f ullen wir die Matrix C mit Nullen auf oder streichen Nullen, bis eine Matrix mit n Zeilen entsteht. Dann multiplizieren wir alle Eintr age der Spalten r 1 bis n mit 1 und ersetzen beim i-ten Vektor an Position r i die 0 durch x1 , . . . , xnr der eine 1. Die Spalten sr1 , . . . , sn der modizierten Matrix ergeben eine Basis B L osungsgesamtheit des zugeh origen homogenen Systems. Die letzte modizierte Spalte bleibt unver andert und ergibt unsere spezielle L osung x0 :

1 0 0 1 . . .
0 0 0 . . . 0 0 . . .


.. .

0 0 1 0

0 0 . . . 0 1 0 . . . 0

1,r1 2,r1 r1,r1 r,r1


0 1 . . . .. . . . .

1,n 2,n r1,n r,n


0 . . . 0 .. . 1
xs

. . .

0 0


x1

87

r1 r r1 0 . . . 0 m 0 . . .

1 2 . . .

0
x0

Dann machen wir die Spaltenvertauschungen durch die entsprechende Permutation in den Komponenten uckg angig. Die allgemeine L osung des Systems ergibt sich, indem der Vektoren x0 , x1 , . . . , xnr wieder r wir zu x0 (der von der letzten Spalte kommt) eine beliebige Linearkombination von B hinzuaddieren. 6.2-8 Beispiel: G sei folgendes Gleichungssystem: x1 2x1

x1

5x2 2x2 7x2 2x2

x3 x3 x3

1 3 1

6x4 4x4 7x4 x4

x5 3x5 x5 2x5

1 0 . 1 2

Wir f uhren folgende elementare Operationen durch:

A b

1 0 ; 0 0
0 0

1 2 0 1

0 1

0 0

0 0 1

1 1 1 2 1 1 Spalte 2 und 3 vertauschen 1 1 0 5 6 1 1 1 8 8 1 2 1 7 7 1 1 1 7 7 1 1 1 1 0 5 6 1 1 0 3 0 1 1 Zeile 4 in die 2.Zeile


5 8 7 7 0 1 1 1 6 8 7 7 0 7 0 7 0 1 0 0 5 7 1 0 0 0 1 0 1 0 1 0 6 7 1 0

5 2 7 2

0 1 1 1

6 4 7 1

1 2 0 1 2

1 0 ; 0 0 1 0 ; 0 0 Der Vektor

0 1

0 1

0 1 0 0

1 14 1 22
0 0 0

1 0 0

1 1 3 7 0

5 1

x0

14 22
0

5 3 R 0

ist fast eine spezielle L osung des Systems. Wir haben jedoch die zweite und dritte Spalte vertauscht, d. h. die Variablen x2 und x3 . Diese Vertau-

88

schung m ussen wir jetzt r uckg angig machen. Ebenso m ussen wir diese Vertauschung bei

1
0 1 1 0

x1

und

x2

1 1 0 0 1

durchf uhren. Wir erhalten daher als L osungsgesamtheit von G:


14

LG

22

1 1

0 0

0 1 0

1 0 1 0 1

R .

Beachten Sie, dass die Permutation der Spalten, die man durchf uhrt, gew ohnlich als Kette von Vertauschungen zweier Spalten gegeben ist. Beim R uckg angigmachen m ussen dann diese in umgekehrter Reihenfolge durchlaufen werden (warum?). Machen Sie die Probe! Hier sind noch einige weitere Anwendungen von linearen Gleichungssystemen: Angenommen wir haben k Gleichungssysteme mit derselben Koezientenmatrix vorgelegt, d. h. wir haben k Vektoren b1 , . . . , bk K m gegeben und sollen simultan die Gleichungssysteme Ax bi i 1, . . . , k

l osen. Wie wird man vorgehen? Nat urlich muss man die oben beschriebene Prozedur nicht k mal durchlaufen, sondern man kann das auf einmal erledigen, indem man das Verfahren auf die augmentierte Matrix C A b1 , b2 , . . . , bk anwendet. Man transformiert C durch Zeilenoperationen und, wenn n otig, Spaltenoperationen im A-Teil auf eine Form C A b 1 , b2 , . . . , bk

mit sch onem A gem a unserem obigen Kochrezept. i n osungen x0 . Dann machen wir wieder die Spalten b i zu Elementen des K und haben die speziellen L andert sich nicht, es ist ja gerade die L osungsgesamtheit des zugeh origen Die Basis des Kerns von fA homogenen Systems. Diese kann nach obigen Verfahren direkt aus A gewonnen werden. Nat urlich kann man auch diese k Gleichungssysteme simultan durch eine Matrizengleichung ausdr ucken: AX B,

wobei der i-te Spaltenvektor f ur eine (unbekannte) L osung des i-ten Gleichungssystems steht (so ist X ein n k -Matrix), und die i-te Spalte von B gerade bi ist (so ist B eine m k -Matrix). Ein Spezialfall entsteht, wenn m n und B E ist. Dann lautet die Matrizengleichung AX E

ar , d. h. nicht invertierbar, so ist und die L osung ist die Inverse A1 , sofern sie existiert. Ist A singul eben AX E nicht l osbar. Aber kommt uns das nicht bekannt vor? Bl attern Sie mal zu Beispiel 5.7-19 zur uck!

89

6.3

Numerisches

Aus dem vorigen Paragraphen ist unschwer zu erkennen, dass in der Praxis durchaus groe Gleichungssysteme mit vielen Unbestimmten auftreten k onnen. ( Gro und viel kann hier etwa bedeuten: Mehrere tausend Gleichungen in ebenso vielen Unbestimmten). Die L osungsgesamtheit LG eines linearen Gleichungssystems braucht man aber nicht immer in der Form, wie sie im Abschnitt Konkretes entwickelt wurde. Oft gen ugt es, eine Reihe von Variablen als frei w ahlbar auszuzeichnen und Gleichungen f ur die Abh angigkeit der u osungsgesamtheit in brigen Variablen von den freien aufzustellen. Um eine Darstellung der L dieser Form zu erreichen, kann man ein etwas einfacheres Verfahren w ahlen, das lediglich Zeilenoperationen erfordert: Der sogenannte Gau-Algorithmus . 6.3-1 Denition: Eine m n-Matrix A ji mit Zeilenvektoren z j (1 ( row echelon form), falls gilt: A ist die Nullmatrix oder es gibt Indizes 1 r rgA und folgenden Bedingungen. j i1 m) ist in Treppenform i2 ir n mit

1. Alle Zeilen zj mit j r sind Nullzeilen. r, so ist der erste von Null verschiedene Eintrag in der j -ten Zeile von A in Spalte ij : 2. Ist j Ist k ij , so ist jk 0 und jij 0. (Wegen ij ij 1 wandern diese f uhrenden von Null verschiedenen Koezienten mit wachsendem Zeilenindex strikt nach rechts.) 6.3-2 Beispiel: Seien

2 1 0 0 0 0

1 5, B 2

1 1 0 1 0 0

2 4, C 0

1 1 0 2 0 0

2 1, 1

dann ist A nicht, aber B und C sind in Treppenform. 6.3-3 Beobachtung: Sei Ax ist und A die Gestalt b ein Gleichungssystem in oberer Dreiecksgestalt: Das heit, dass n

11 0 . . . . . . 0

12 22

... ... .. . ...

1,n1 2,n1 .. .

0 Ax

0 b

1n 2n . . . . . . nn

hat. Das zugeh orige Gleichungssystem l asst sich dann ganz leicht von unten aufrollen: Ist nn 0, so ist xn bn nn . Ist nn 0 und bn 0, so ist das System nicht l osbar und man kann aufh oren. ahlen. Ist nn 0 bn , so kann man xn frei w Hat man xj f ur i 1 j n aus Gleichungen i 1 bis n schon berechnet, so setze man diese Werte in Gleichung i ein und erh alt eine Bestimmungsgleichung f ur xi . osbar. 5. Ist ii 0, so ist diese sofort l 6. Ist ii 0 erhalten wir eine Gleichung f ur die Variablen xj mit i 1 j n. Kann diese mit den schon errechneten m oglichen Werten dieser Variablen erf ullt werden, ist xi frei w ahlbar. Sonst ist das System nicht l osbar, und wir k onnen aufh oren. 1. 2. 3. 4. 90

So k onnen wir das System l osen oder herausnden, dass es nicht l osbar ist. Ist ii so erh alt man nat urlich immer eine eindeutige L osung.

0 f ur alle 1

n,

6.3-4 Bemerkung: Man kann immer annehmen, dass die Koezientenmatrix quadratisch ist: Entweder man f ugt einige Nullzeilen hinzu, was dem Hinzuf ugen trivialer Gleichungen entspricht, oder man f ugt die richtige Anzahl von Nullspalten hinzu, was bedeutet, dass man Dummy Variable hinzunimmt, die am Ende als Parameter frei w ahlbar sind (und am Ende wieder weglassen werden k onnen). 6.3-5 Algorithmus Gau: Durch folgenden Algorithmus kann jede m n-Matrix A penform gebracht werden: 1. Sei die i1 -te Spalte die erste, die von der Nullspalte verschieden ist. Sei 1 k ist. Wir vertauschen Zeilen 1 und k und erhalten A ji mit ki1 1i1 2. F ur 2 j m f uhren wir die Zeilenoperation zj zj

ji in Trep0

m, sodass ki1 0.

jiz
1

1i1 1

durch. Wir erhalten eine Matrix A1 ji , in der die i1 -te Spalte si1 die erste Spalte ist, die nicht eine Nullspalte ist. Diese hat nur einen von 0 verschiedenen Eintrag und der steht an Position (=Zeile) 1. Dies Element wird f uhrendes Element der ersten Zeile genannt. 3. Ist die Matrix nun in Treppenform, so h oren wir auf. Sonst lassen wir die ersten i1 Spalten und die erste Zeile weg und wenden das Verfahren auf die resultierende kleinere Matrix an, um i2 zu ahlen, dass bestimmen, vertauschen die zweite und die k -te Zeile von A1 , wobei wir 2 k m so w 1 ki2 0 ist und subtrahieren Vielfache der zweiten Zeile von den folgenden wie in Schritt 2 oben. Die i2 -te Spalte in der resultierenden Matrix hat dann h ochstens in den ersten beiden Positionen von Null verschiedenen Eintr age, und der Eintrag an zweiter Position ist nicht 0. atestens mit Am bricht das Ver4. Wir iterieren das Verfahren und erhalten A1 A2 , . . . , Ar . Sp fahren ab, d.h. r m. Aus der Konstruktion sehen wir, dass T A Ar Treppenform hat, wobei die nat urlichen Zahlen 1 i1 i2 . . . ir n durch den Algorithmus oben bestimmt sind. Die Zahl r ist dann nat urlich der Rang von A. Die ki 0 im -ten Iterationsschritt heien Pivotelemente. Man beachten, dass der Algorithmus lediglich Zeilen- und keine Spaltenoperationen involviert. So kann man A durch Zeilenoperationen auf Treppenform bringen.

91

Kapitel 7

Determinanten: Rechenregeln
Die Theorie der Determinanten ist wohl eines der schwierigsten Kapitel in der linearen Algebra. Will man Determinanten ordentlich motivieren und denieren, so braucht man eine ganze Menge Theorie im Bereich der Gruppentheorie und der multilinearen Algebra. Die Herleitung der Rechengesetze gestaltet sich dann ebenfalls technisch kompliziert. Andererseits ist zun achst u berhaupt nicht klar, wozu man Determinanten eigentlich braucht. Die Einsicht, dass sie n utzlich sind, kommt erst mit ihren Anwendungen, zum Beispiel bei der Berechnung von Eigenwerten und Eigenvektoren von Endomorphismen eines Vektorraums (siehe n achstes Kapitel). Da wird auch schnell klar, dass die Denition von Determinanten wenig n utzlich ist, daf ur aber die Rechengesetze umso wichtiger sind, mit deren Hilfe man konkrete Determinanten ausrechnen kann. Wir werden also einen Mittelweg beschreiten: Zun achst verzichten wir auf die tiefgr undige theoretische Denition von Determinanten und f uhren sie im wesentlichen u ber die Rechengesetze selbst ein, deren Beweise ebenfalls weitgehend auf sp ater verschoben werden. Dann wenden wir die Theorie der Determinanten an, um das Eigenwertproblem zu behandeln und das Hauptachsentheorem zu beweisen. Zu einem sp ateren Zeitpunkt werden wir dann die theoretische Begr undung der Determinanten im Rahmen der multilinearen Algebra nachschieben und werden dann f ur alle Rechenregeln, die wir bis dahin munter benutzt haben, ordentliche Beweise liefern. In diesem Kapitel seien, wie immer, ein K orper K und ein K -Vektorraum V gegeben. Wenn nichts anderes gesagt wird, soll V endlich dimensional sein. Sei f ein Endomorphismus von V und sei A f B , B die Matrix von f bez uglich einer fest gew ahlten Basis B von V . Nun erhebt sich die Frage, wie man an den Eintr agen der Matrix A erkennt, ob A invertierbar ist oder nicht, d. h. also ob f ein Automorphismus ist oder nicht. Wie wir sehen werden, kann dies mit Hilfe der Determinanten entschieden werden.

7.1

Denition der Determinante

7.1-1 Problem: Sei die 2 2-Matrix A genau dann, wenn 11 22 12 21 7.1-2 Beobachtung: Sei A 0 ist.

11 21

12 22

gegeben. Zeigen Sie, dass A invertierbar ist

ij eine 2 2-Matrix. Dann ist 11 22 12 21 11 22 11 22 , wobei die Permutation von 1, 2 ist, die alle Elemente festl asst (die Identit at), und die Zahlen 1 und 2 vertauscht, also erh alt man 11 22 12 21 , indem man aus jeder Zeile und jeder Spalte von A
92

genau ein Element nimmt und das Produkt u ber diese Elemente bildet. Sodann summiert man u ber alle m oglichen solcher Kombinationen unter Hinzuf ugen eines Vorzeichens, das wir sp ater genauer denieren wollen. Diese Beobachtung wollen wir nun verallgemeinern f ur beliebige n n-Matrizen. Dazu f uhren wir einige neue Begrie ein. Mit Sn bezeichnen wir die symmetrische Gruppe auf n Buchstaben, d. h. die Menge aller Permutationen der Zahlen 1, 2, . . . , n. Eine Permutation einer Menge ist dabei einfach eine bijektive Abbildung der Menge in sich. Man schreibt 1 2 ... n 1 2 . . . n

f ur eine Permutation Sn . Die Gruppenmultiplikation in der Sn ist durch die Komposition von Abbildungen gegeben. Damit wird Sn zur Gruppe mit n! n n 1 2 1 vielen Elementen. Das Signum sign einer Permutation Sn erh alt man wie folgt: Man u berlegt sich schnell, dass man jede Permutation durch eine Verkettung von Vertauschungen zweier Zahlen (Transpositionen ) erreichen kann. Nat urlich sind diese kein bisschen eindeutig durch bestimmt, man kann auf sehr viele verschiedene Arten als ein solches Produkt hinschreiben. Nicht einmal die Anzahl der benutzen Transpositionen ist dabei durch festgelegt. Aber man kann zeigen, dass die Anzahl modulo 2 festliegt, d. h. entweder benutzt man bei allen Darstellungen von als Produkt von Transpositionen eine gerade oder bei allen eine ungerade Anzahl derselben. Im ersten Fall heit ur gerades und sign 1 gerade im zweiten Fall ungerade Permutation und man setzt sign 1 f achtigkeit der Menge f ur ungerades . Alternativ deniert man die L ange von als M

i, j

n, i

ist die Permutation gr oter L ange. (Wie lang ist sie?) Man hat nun sign 1 . Hier ist nun unsere Denition der Determinante von A. Aber seien Sie gewarnt: Obwohl man einen nicht induktiven, geschlossenen Ausdruck f ur die Determinante einer quadratischen Matrix erh alt, benutzt man diesen sehr selten f ur konkrete Rechnungen, da die Anzahl der zu berechnenden Summanden mit wachsenden n extrem schnell sehr gro wird (f ur n 10 in der Gr oenordnung von 3 Millionen). 7.1-3 Denition Determinante: Sei A ij Mn K . Dann ist die Determinante det A von A deniert als sign 11 22 nn . det A
Sn

von Fehlst anden (Displacements ) von . Diese Zahl misst sozusagen, wie stark die Menge 1, 2, . . . , n permutiert. Die Permutation 1 2 ... n 1 n 2 1 n n 1 ...

ahlt man Betrachtet man einen Summanden T sign 11 22 nn in obiger Summe, und w Indizes i bzw. j , so sieht man unmittelbar, dass in T genau ein Faktor mit erstem Index i und ein Faktor mit zweitem Index j vorkommt, n amlich ii bzw. 1 j j 7.1-4 Folgerungen: Sei A in Denition 7.1-3. Dann gilt:

ij MnK und sei T der zu Sn geh orende Summand von

1. In T kommt aus jeder Zeile und jeder Spalte von A genau ein Eintrag als Faktor vor. 2. Sei T ein Produkt von Elementen der Matrix A, sodass aus jeder Zeile und jeder Spalte von A genau ein Element in T vorkommt. Dann gibt es ein Sn , sodass sign T T ist. 93

F ur 3 3-Matrizen kann man die Determinante noch nach der Denition ausrechnen. Folgende Merkregel ist dabei hilfreich: 7.1-5 Kochrezept Regel von Sarrus: nach Pierre Fr ederic Sarrus (1798-1861) Sei A ij M3 K . Dann erh alt man die Determinante von A, indem man zu A die beiden ersten Spalten von A als Spalte 4 und 5 hinzuf ugt, die Produkte uber alle Diagonalen bildet und summiert, indem man aufsteigende Diagonalen mit negativen und absteigende Diagonalen mit positiven Vorzeichen versieht:

11 21 31

12 22 32

13 23 33

11 21 31 +

12 22 32 + +

7.1-6 Bemerkung: Die Determinante einer 3 3-Matrix ist das Volumen des von den Spaltenvektoren (Zeilenvektoren) aufgespannten Parallelotops im R3 f ur K R. Insbesondere ist sie 0, falls diese linear abh angig sind, was genau dann der Fall ist, wenn die Matrix nicht invertierbar ist. Wie wir sehen werden, gilt dies allgemein, und man kann daher (f ur K R) das Volumen des Parallelotops, das von n Vektoren im Rn aufgespannt wird, als die Determinante der Matrix denieren , deren Spaltenvektoren gerade die n gegebenen Vektoren sind. 7.1-7 Problem: Berechnen Sie die Determinante der Matrix

2 0 0 0 2

0 2 0 2 0

0 0 2 0 0

0 2 2 0 0 0 2 0 0 2.

Am Problem sieht man, dass man mit der strikten Denition nicht wirklich bei der Berechnung der Determinante weiterkommt. Hat man etwa eine ganz groe Matrix (meinetwegen 10 10) mit ganz unterschiedlichen Eintr agen, die alle nicht 0 sind, jedoch mit zwei gleichen Zeilen, dann wird sich herausstellen, dass die Determinante 0 ist. So ben otigen wir Rechenregeln, um Determinanten konkret auszurechnen.

7.2

Rechenregeln
0.

A, B, . . . seien nun immer n n-Matrizen u ber K . alt eine Zeile (oder eine Spalte) von A nur Nullen als Eintr age, so ist det A 7.2-1 Lemma: Enth

Eine Matrix, in der in jeder Zeile und in jeder Spalte genau ein von Null verschiedener Eintrag vorkommt, heit monomial , sind alle diese Eintr age Eins, so spricht man von einer Permutationsmatrix. (Monomiale Matrizen sind immer quadratisch! Warum?)

94

7.2-2 Lemma: Die Determinante einer monomialen Matrix ist bis aufs Vorzeichen gleich dem Produkt ihrer nicht verschwindenden Eintr age. Insbesondere ist die Determinante einer Permutationsmatrix gleich 1. 7.2-3 Problem: Woher kommt der Name Permutationsmatrix? Zeigen Sie: urliche Basis 1. Anwendung einer Permutationsmatrix A Mn K auf die nat E permutiert diese, d. h. es gibt ein

e1 , . . . , en
Aei ei

Sn mit

2. Die Menge der n n-Permutationsmatrizen ist eine Untergruppe W von GLn K . 3. Die Abbildung, die einer Permutationsmatrix A die Permutation wie oben zuordnet, ist ein Isomorphismus von W auf Sn . Die Matrix A ist dann die Basiswechselmatrix der Permutation der geordneten Basis E . 4. Ist A die zu

f ur alle 1

n.

Sn geh orende Permutationsmatrix, so ist det A


det At det A.

sign .

7.2-4 Problem: Zeigen Sie: Bis jetzt haben wir alles bewiesen oder zumindest plausibel gemacht. Jetzt kommt ein Satz, den wir nicht hier, sondern erst sp ater beweisen wollen, wenn wir gen ugend Hilfsmittel aus der multilinearen Algebra zur Verf ugung haben. 7.2-5 Satz: Seien A, B

Mn K . Dann ist detAB det Adet B .

Da die Determinante der Einsmatrix 1 ist, folgt aus Satz 7.2-5 sofort 7.2-6 Korollar: Sei A invertierbar. Dann ist detA1

det A1 .

Erinnern Sie sich, dass elementare Zeilen- und Spaltenoperationen als Multiplikation mit bestimmten Matrizen, n amlich Elementarmatrizen, von rechts bzw. links aufgefasst werden k onnen Damit folgt aus dem obigen Satz sofort: 7.2-7 Satz: Sei A Mn K . Dann gilt: 1. Addiert man zu einer Zeile (Spalte) von A ein Vielfaches einer anderen Zeile (Spalte), so andert sich die Determinante nicht. 2. Vertauscht man zwei Zeilen (Spalten) von A, so andert die Determinante ihr Vorzeichen. 3. Multipliziert man eine Zeile (Spalte) von A mit einem Skalar , so wird die Determinante mit multipliziert.

95

In 5.7-15 hatten wir gesehen, dass eine Matrix durch elementare Zeilen- und Spaltenoperationen auf Diagonalgestalt gebracht werden kann, wobei Multiplikation von Zeilen (Spalten) nur mit Skalaren 0 gestattet ist. In der Tat, wenn man nicht verlangt, dass auf der Diagonalen am Schluss nur noch Einsen und Nullen stehen, kann man auf Man over drei in obigem Satz ganz verzichten, wie man sich leicht u berlegt. So ist die resultierende Determinante der Diagonalmatrix bis aufs Vorzeichen dieselbe wie die der Ausgangsmatrix und wir schlieen: 7.2-8 Satz: Eine quadratische Matrix A ist invertierbar genau dann, wenn ihre Determinante nicht 0 ist. Diese Ergebnisse liefern auch ein Verfahren, wie man konkret Determinanten berechnet: 7.2-9 Kochrezept: Ist eine quadratische Matrix gegeben, so kann man ihre Determinante berechnen, indem man zuerst die Matrix durch elementare Umformungen der ersten und der zweiten Art in obigem Satz auf Dreiecksgestalt bringt und sich dabei die Vorzeichen bei Anwendung von Vertauschungen von Zeilen (Spalten) merkt. Ist die Anzahl dieser Vertauschungen gerade, so ergibt sich die Determinante als Produkt der Diagonalelemente, sonst als deren Negatives. 7.2-10 Korollar: Hat eine quadratische Matrix zwei identische Spalten oder Zeilen, so ist ihre Determinante 0. Die n achste Rechenregel ist n utzlich, wenn es in der Matrix Zeilen oder Spalten mit vielen Nullen gibt. Dazu ben otigen wir die folgende Denition: 7.2-11 Denition: Sei 1 i, j n. Der Kofaktor Aij vom ij -ten Eintrag ij von A ist die n 1 alt, wenn man aus A die i-te Zeile und die j -te Spalte streicht. n 1-Matrix, die man erh Der franz osische Mathematiker und Astronom Marquis de Pierre Simon Laplace (1749-1827) war einer der f uhrenden Wissenschaftler seiner Zeit. Seine Arbeiten erstrecken sich von der Himmelsmechanik u ber die Kosmogenie, die Potentialtheorie, die Schwingungs- und W armelehre bis zur Wahrscheinlichkeitsrechnung. 7.2-12 Satz Laplacesche Entwicklung: Sei k Aij . Dann ist det A
n i 1 n j 1

1, . . . , n und A ij n n-Matrix mit Kofaktoren


Entwicklung nach der k -ten Spalte Entwicklung nach der k -ten Zeile

1ik ik detAik 1kj kj detAkj

7.2-13 Problem: Zeigen Sie, dass die Determinante einer Dreiecksmatrix das Produkt ihrer Diagonalelemente ist.

96

7.2-14 Satz: Die Abbildung

det : Mn K

K:A

det A

ist multiplikativ und surjektiv. Insbesondere ist daher ihre Einschr ankung auf die generelle lineare Gruppe eine Gruppenepimorphismus: K . det : GLn K Der Kern dieses Gruppenhomomorphismus heit spezielle lineare Gruppe und wird mit SLn K bezeichnet. So ist SLn K die Menge aller n n-Matrizen mit Determinante 1. Wir kommen nun zu einer besonders wichtigen Eigenschaft von Determinanten, n amlich ihrer Invarianz gegen uber Basiswechsel, die es erlaubt, u ber Determinanten von Endomorphismen zu sprechen: 7.2-15 Denition/Satz: Die Matrizen A und B heien ahnlich, falls es eine invertierbare n nMatrix P mit B P 1 AP gibt. Man schreibt dann A eine Aquivalenzrelation. B und sagt auch, A und B seien konjugiert in GLn K . Die Relation ist

7.2-16 Satz: Die Determinanten ahnlicher Matrizen stimmen uberein. Mit anderen Worten ist die Abbildung det konstant auf den Aquivalenzklassen von Sei f EndK V . Seien B und C Basen von V . Dann ist det .

B, B
f

det

id

C , B1 detf C , C detid C , B

det

C, C
f

So macht die folgende Denition Sinn. 7.2-17 Denition: Sei f ein Endomorphismus von V . Dann ist det f wobei A ur irgend eine Basis B von V ist. f B , B f

det A die Determinante von f ,

Wie wir gesehen haben, ist der Aufwand, eine Determinante zu berechnen, in etwa derselbe, wie den Rang einer Matrix zu bestimmen. Will man also lediglich herausnden, ob eine konkret gegebene Matrix invertierbar ist, so haben wir durch die Einf uhrung von Determinanten noch nicht viel gewonnen. Wie wir sehen werden, bilden sie f ur viele Anwendungen ein unentbehrliches Hilfsmittel.

7.3
Sei A 7.3-1

Eine Anwendung

ij Mn K und Aij der Kofaktor aus Denition 7.2-11. Denition: Die Adjunkte der n n-Matrix A ij ist die n n-Matrix 111 A11 121 A21 . . . 1n1 An1 112 A12 122 A22 . . . 1n2 An2
adj A

1nn Ann Beachten Sie die Nummerierung: adj A ist die Transponierte der Matrix 1ij
A1n A2n

11n

. . .

12n

. . .

. ...

..

. . .

Aij !

97

7.3-2 Satz: Sei A Mn K . Dann ist 1. A adj A det A En . 2. Ist A invertierbar, so ist A1

det A1 adj A.

Durch diesen Satz erh alt man die folgende geschlossene Formel zur L osung eindeutig l osbarer linearer Gleichungssysteme: 7.3-3 Satz Cramersche Regel: von Gabriel Cramer (1704-1752). Sei ein lineares Gleichungssystem L der folgenden Form gegeben: 11 x1 12 x2 21 x1 22 x2 . . . . . .

1n xn 2n xn

n1 x1 n2 x2

Die Koezientenmatrix von L sei A die L osung ist durch folgende Formel gegeben: F ur 1 xj

nn xn n ij Mn K . Sei det A 0. Dann ist L eindeutig l osbar und


j n ist
n 1 i 1ij Aij . det A i 1

. . .

1 2 . . .

98

Kapitel 8

Eigenwerte und Eigenvektoren


8.1 Sch one Matrizen

Wir kommen jetzt auf die Frage zur uck, f ur einen Endomorphismen f eines K -Vektorraums V eine Basis B von V so zu nden, dass die Matrix on wird, was immer das heien mag. f B , B besonders sch Anders ausgedr uckt: wir suchen in AGLn K

P 1 AP

GLn K

besonders gutartige Matrizen. Hier ist A eine Matrix von f bez uglich irgendeiner Basis von V . Die oben eingef uhrte Menge AGLn K ist aber gerade die Ahnlichkeitsklasse von A. 8.1-1 Problem: Wir setzen AP P 1 AP . Zeigen Sie: cP : A AP ist K -Algebraautomorphismus.

8.1-2 Problem: Was ist der Unterschied zwischen der hier denierten Menge AGLn K und der in 5.7 betrachteten Menge Mf , GLn K A GLn K (wobei A wieder wie oben eine Matrix f ur f ist)? Im folgenden ist K wie immer ein K orper, V ein K -Vektorraum und f ein Endomorphismus von V .

B, B und nennen diese Matrix die Matrix von f f ur B .


f

urzend 8.1-3 Bezeichnung: Sei B eine endliche Basis von V . Dann schreiben wir abk

B anstatt
f

Vektorr aume, insbesondere solche groer Dimension, sind recht kompliziert, und noch mehr gilt das f ur Endomorphismen. Die Idee ist nun, den groen Vektorraum in eine direkte Summe von kleinen zu zerlegen, die invariant unter f sind, d. h. die unter der Operation von f in sich abgebildet werden. 8.1-4 Denition: Sei U ein Unterraum von V und sei f ur alle u U . oder f -invariant, falls f u U ist f Sei etwa U ker f . Dann ist f u 0 u ker f . Dann gilt 0 U f ur u f u f u

EndK V . Dann heit U invariant unter f  K.

U , und daher ist U ein f -invarianter Unterraum. Sei


0 Ku

Daher ist der eindimensionale Unterraum Ku von V invariant unter f . Dies ist ein Beispiel eines kleinen f -invarianten Unterraums. 99

8.1-5 Probleme: Sei U Basis von U ist.

V invariant unter f , und sei B

v1 , . . . , vn Basis von V , sodass v1 , . . . , vk

1. Wie sieht A f B aus? Gilt die Umkehrung, d. h. wenn f B die Gestalt hat, die Sie hoentlich herausgefunden haben, ist dann U v1 , . . . , vk invariant unter f ? ur 1 3. Ist f vi Kvi f

2. Sei W vk1 , . . . , vn ein f -invariantes Komplement von U in V . Wie sieht dann A aus? Was ist mit der Umkehrung? i n, was k onnen wir dann u ber A sagen? Gilt die Umkehrung?

Wir sehen, dass eindimensionale f -invariante Unterr aume besonders n utzlich sind, und dass man f ur Diagonalmatrizen besonders viele von ihnen ndet. F ur V K 2 sei:

1 0

3 7

Hier haben wir unmittelbar einen eindimensionalen invarianten Unterraum (welchen?), aber k onnen wir aber auch einen f ur 10 3 B 5 2 hinschreiben? Probieren Sie mal K 1, 1! Wann ist der eindimensionale Unterraum Kv f ur 0 wenn gilt: f v v v

invariant unter f ? Nat urlich genau dann,

K.

Das f uhrt uns im n achsten Abschnitt auf unsere erste grundlegende Denition.

8.2

Die charakteristische Gleichung

8.2-1 Denition: Der Vektor 0 v V heit Eigenvektor (EV) zum Eigenwert (EW) K , falls f v v ist. Einen Eigenvektor bzw. Eigenwert von fA nennt man dann auch Eigenwert bzw. Eigenwert von A. Wir haben nat urlich f 0 0 f ur jeden Skalar , und daher wird man aus dem Nullvektor nicht viel Information ziehen k onnen. So schlieen wir diesen Fall aus und betrachten den Nullvektor nicht als Eigenvektor. onnen wir alle Eigenvektoren und Eigenwerte Bleiben wir bei unserem Beispiel der 2 2-Matrix B oben. K bestimmen? Oensichtlich m ussen wir dazu das Gleichungssystem

B l osen.

x y

x y

osungen von 8.2-2 Problem: Finden Sie alle L 10x 5x 3y 2y x . y

Sie werden sicher mit mir u on sind. Sie sind so bereinstimmen, dass Diagonalmatrizen besonders sch sch on, dass sie eine besondere Bezeichnung erhalten:

100

8.2-3 Bezeichnung: Seien 1 , . . . , n

K . Die Diagonalmatrix
0 . . .

wird im folgenden mit diag 1 , . . . , n bezeichnet.

... 0 . .. . . 2 . .. .. . . 0 . . . 0 n

Was ist nun der Zusammenhang mit Eigenvektoren und Eigenwerten? 8.2-4 Satz: Sei B

v1 , . . . , vn geordnete Basis von V . Dann ist f B diag 1, . . . , n


i n.

genau dann, wenn vi Eigenvektor zum Eigenwert i ist f ur 1

Sei K . Durch : V V : v v wird ein Endomorphismus von V deniert, n amlich die Linksmultiplikation mit . Folgendes Lemma ist oensichtlich: 8.2-5 Lemma: Sei B eine beliebige Basis von V und dim V

n. Dann ist En .

diag , . . . ,

Wir wenden uns der Frage zu, unter welchen Bedingungen das K orperelement ein Eigenwert von f sein kann. Dies trit aber nach Denition nur zu, wenn wir einen Vektor 0 v V nden, der f v v oder aquivalent dazu 0

erf ullt. Mit anderen Worten, v muss im Kern der linearen Abbildung f liegen. Dieser enth alt aber Vektoren 0 dann und nur dann, wenn f kein Automorphismus von V ist, ar ist. Nach Satz 7.2-8 gilt: d. h. wenn die Matrix von f bzgl. irgendeiner Basis von V singul 8.2-6 Satz: Der Skalar ist Eigenwert von f genau dann, wenn detf

f v v

f v

0 ist.

Nach der im Kapitel 5 entwickelten Theorie sind Ergebnisse u ber Endomorphismen von V und u ber n n-Matrizen (n dim V ) v ollig aquivalent, wenn man eine Basis B von V w ahlt (Satz 5.5-10). Somit kann man jede Aussage u ber Endomorphismen in eine solche u ber quadratische Matrizen u bersetzen und umgekehrt. Wir werden das in Zukunft oft so tun, ohne jedesmal l angere Erkl arungen wie etwa und nun w ahlen wir eine Basis . . . anzugeben. Hier ist nun die Matrizenversion des obigen Satzes: 8.2-7 Satz: Der Skalar ist Eigenwert der n n-Matrix A genau dann, wenn detA En 0 ist.

Von nun an werden wir nicht immer jede Aussage zweimal, f ur Endomorphismen und Matrizen, formulieren, sondern werden oft stillschweigend annehmen, dass mit einer Version die andere ebenfalls bekannt ist. Wir haben nun unser abstraktes Problem, Eigenwerte von Endomorphismen bzw. Matrizen zu nden, in ein reines Rechenproblem u bersetzt: Fassen wir als Unbestimmte auf, so ist (mit E En ) detA E 0, detf

eine Bestimmungsgleichung f ur , die sogenannte charakteristische Gleichung von A bzw. f . Was f ur eine Sorte von Gleichung ist das? 101

8.2-8 Problem: 1. Bestimmen Sie alle Eigenwerte von f : R2 R2 : x, y

x 2y, x 2y.
1 2. 3

2. Berechnen Sie die charakteristische Gleichung von A 3 1 2 4 1 1

Im allgemeinen ist die charakteristische Gleichung einer Matrix A 11 21 ... 21 22 . .. . . . . . . n1,n1 n1 ... n,n1

ij gegeben als:
1n 2n . . .

n1,n nn

1n det f ist. Die Nullstellen sind dieselben f ur die mit 1 Beachten Sie, dass detf durchmultiplizierte Gleichung, und die kleine Vorzeichenanpassung im folgenden Satz hat lediglich die Bedeutung, 1 als h ochsten Koezienten des dort denierten Polynoms zu erhalten. 1n detf t ein Polynom f t K t der Form f t tn n1 tn1 1 t 0 f ur bestimmte Koezienten i K (0 i n). Das Polynom f t heit charakteristisches Polynom von f . Ahnlich wird das charakteristische Polynom A t K t einer quadratischen Matrix A deniert. Beachten Sie, dass die Skalarmatrix En mit jeder n n-Matrix kommutiert. Man sagt, En ist im Matrizenring Mn K zentral . Daher haben wir:
8.2-10 Korollar: Ahnliche Matrizen besitzen dasselbe charakteristische Polynom. 8.2-11 Problem: Wie lautet die Endomorphismenversion dieses Korollars? Zwei Koezienten des charakteristischen Polynoms haben eine besondere Bedeutung, n amlich der konstante Term 0 und n1 . Den ersten erh alt man als f 0: 8.2-12 Satz: Der konstante Term 0 des charakteristischen Polynoms ist det f . aren, wechseln wir zur Matrizenseite: Um n1 zu erkl 8.2-9 Satz: Sei f ein Endomorphismus eines K -Vektorraums V und sei t eine Unbestimmte. Dann ist

1n mal die Determinante

102

8.2-13 Satz: Sei A

ij Mn K , und sei A t tn n1 tn1 1 t 0 n1


n i 1

das charakteristische Polynom von A. Dann ist ii ,

die Summe der Diagonalelemente von A. Diese Summe der Diagonalelemente einer quadratischen Matrix A ist so wichtig, dass sie einen eigenen ur trace = Spur). Namen erh alt: Man nennt sie Spur der Matrix A und bezeichnet sie mit trA (tr f Wegen Korollar 8.2-10 kann man nun die Spur trf eines Endomorphismus f eines n-dimensionalen Vektorraums V als Koezient von tn1 im charakteristischen Polynom f t denieren und hat: 8.2-14 Satz: Die Abbildung ist K -linear und f ur f, g tr : EndK V K:f trf

EndK V ist trf g

trgf .

Die anderen Koezienten des charakteristischen Polynoms haben ebenfalls eine Interpretation (n amlich als elementarsymmetrische Funktionen in den Eigenwerten), die aber weniger wichtig ist. Wir haben also gezeigt: 8.2-15 Satz: Die Eigenwerte von f sind genau die Nullstellen des charakteristischen Polynoms f t. Dabei ist K eine Nullstelle des Polynoms ht K t, falls h 0 ist. Wir brauchen jetzt einige Fakten, deren Beweis wir auf sp atere Vorlesungen (Algebra) verschieben m ussen. Zur Unterscheidung nennen wir diese nicht S atze, sondern Fakten. Polynomdivision zeigt unmittelbar folgenden Fakt, (der in der Vorlesung Algebra tats achlich genauer behandelt wird, auch wenn er ober achlich betrachtet simpel erscheinen mag): 8.2-16 Fakt: Sei 0 ht K t und sei eine Nullstelle von h. Dann gibt es ein Polynom g t vom Grad deg g deg h 1, sodass ht g tt ist. Sind 1 , . . . , k genau die Nullstellen von h, dann gibt es 1 , . . . , k ht

N, sodass gilt:

g1 tt 1 1 t 2 2 t k k ,

deg h 1 2 k . F ur wobei g1 t ein Polynom ohne Nullstellen in K ist vom Grad deg g1 at der Nullstelle i und wird mit mi ht bezeichnet. 1 i k heit i die Vielfachheit oder Multiplizit 8.2-17 Korollar: Ein Polynom vom Grad n hat h ochstens n verschiedene Nullstellen. Hat der K orper K die Eigenschaft, dass jedes Polynom p K t mit deg p 1 in K eine Nullstelle besitzt, so nennt man K algebraisch abgeschlossen . So ist R nicht algebraisch abgeschlossen, da z. B. t2 1 keine Nullstellen in R hat. 8.2-18 Fakt Hauptsatz der Algebra: C ist algebraisch abgeschlossen.

Polynome vom Grad 1 heien linear . Solche Polynome haben nicht nur genau eine Nullstelle in K , sondern man kann diese auch ohne weiteres direkt berechnen! 103

8.2-19 Korollar: Jedes Polynom p K x von positivem Grad u ber einem algebraisch abgeschlossenen K orper K zerf allt in Linearfaktoren, d. h. p ist Produkt von Linearfaktoren. 8.2-20 Fakt: Jeder K orper K ist in einem algebraisch abgeschlossenen K orper enthalten und es gibt einen kleinsten solchen, den sogenannten algebraischen Abschluss K von K . So zerf allt jedes Polynom uber K in Linearfaktoren. in K t 8.2-21 Problem: Bestimmen Sie Eigenwerte und Eigenvektoren der reellen Matrix

3 1 2 4 1 1

1 2. 3

Wie ndet man also die Eigenvektoren zu einem Eigenwert? Oder besser, f ur einen Eigenwert (eine Nullstelle des charakteristischen Polynoms also) suchen wir die Gesamtheit aller zugeh origen Eigenvektoren? Schauen wir uns daf ur noch einmal an, wie wir Satz 8.2-6 hergeleitet haben: Dass v V Eigenvektor aquivalent dazu, dass von f EndK V zum Eigenwert K ist, ist

f v
ist. Mit anderen Worten, wir haben:

8.2-22 Denition/Satz: Die Gesamtheit der Eigenvektoren von f zum Eigenwert besteht aus allen Vektoren in kerf 0. Der Unterraum kerf von V wird Eigenraum zum Eigenwert genannt andnisse zu bef urchten sind. und mit V f oder einfach mit V bezeichnet, falls keine Missverst Nun ist klar, wie man rechnerisch vorgeht, um die Eigenr aume zu bestimmen: 8.2-23 Prozedur: 1. Man w ahlt sich eine Basis von V und schreibt f als Matrix A. Dann berechnet man das Polynom f t A t dettE A K t.

2. Man bestimme die Nullstellen von f t, etwa 1 , 2 , . . . , k . 3. F ur jede solche Nullstelle i l ose man das homogene Gleichungssystem

A i E x

0.

W ahrend Schritte eins und drei in Prozedur 8.2-23 mit Hilfe der linearen Algebra exakt gel ost werden k onnen, ist das mit Schritt zwei so eine Sache: F ur 2 2-Matrizen haben wir es mit einer quadratischen Gleichung zu tun, die wir ja bekanntlich l osen k onnen. Ahnliche allgemeine Formeln (blo viel komplizierter) gibt es auch noch f ur Polynome vom Grad drei und vier, aber nicht mehr f ur Polynome vom Grad 5. Dies ist nicht so, weil die Mathematiker bisher zu bl ode waren, eine zu nden, sondern man kann beweisen , dass das nicht geht (in der Algebra Vorlesung sehen Sie den Beweis voraussichtlich). Oft muss man sich daher f ur die Bestimmung der Eigenwerte eines Endomorphismus mit N aherungsl osungen zufrieden geben.

104

8.2-24 Probleme: 1. Was sind die Eigenwerte einer Dreiecksmatrix? 2. Bestimmen Sie das charakteristische Polynom und die Eigenr aume der Matrizen

1 0

1 , 1

1 0

0 . 1

Was f allt auf? 3. Bestimmen Sie Eigenwerte und Eigenr aume von

2 0 1 2

0 2 2 4

0 0 0 1

0 0 1 0

4. K onnen nicht ahnliche Matrizen dasselbe charakteristische Polynom haben? Das zweite Problem oben zeigt, dass im folgenden Satz echt kleiner wirklich vorkommt: 8.2-25 Satz: Die Dimension des Eigenraums von f zum Eigenwert K ist kleiner h ochstens gleich der Vielfachheit von als Nullstelle von f t. Mit anderen Worten: Ist m wie in 8.2-16 deniert, dann ist dimkerf

m f t.

8.2-26 Satz: Eine quadratische Matrix A ist genau dann zu einer Dreiecksmatrix ahnlich, wenn ihr charakteristisches Polynom in Linearfaktoren zerf allt. Insbesondere gilt daher: uber K . Dann ist A 8.2-27 Korollar: Sei K algebraisch abgeschlossen und sei A quadratische Matrix zu einer Dreiecksmatrix ahnlich. Hier sind nun zwei S atze, die den Gaul zum Saufen bringen, d. h. auf ihnen beruhen die meisten Anwendungen von Eigenwerten und Eigenvektoren: 8.2-28 Satz: Eigenvektoren v1 , . . . , vk V zu paarweise verschiedenen Eigenwerten 1 , . . . , k eines Endomorphismus f von V sind linear unabh angig.

8.2-29 Satz: Sei f EndK V und seien 1 , . . . , k K paarweise verschiedene Eigenwerte von f . Sei Ui kerf i f ur i 1, . . . , k . Dann ist die Summe der Ui direkt, d.h.
k i 1 k

Ui
i 1

Ui ,

und insbesondere ist dim

k i 1

Ui

k i 1

dimUi .

Als letztes wenden wir uns nun der Frage zu, wann eine quadratische Matrix diagonalisierbar , d. h. zu einer Diagonalmatrix ahnlich ist. Klar ist 105

8.2-30 Satz: Eine quadratische n n-Matrix A ist genau dann diagonalisierbar, wenn K n eine aus Eigenvektoren von A bestehende Basis besitzt. So k onnen wir einen Endomorphismus f von V diagonalisierbar nennen, wenn V eine Basis hat, die aus Eigenvektoren von f besteht. Hier ist nun das Kriterium: 8.2-31 Satz: Seien 1 , . . . , k die verschiedenen Eigenwerte von f sierbar genau dann, wenn
k i 1

EndK V . Dann ist f

diagonali-

dim Vi f

dim V

ist (Automatisch zerf allt dann f in Linearfaktoren). Gegeben sei eine n n-Matrix A. Wie kann man nun entscheiden, ob A diagonalisierbar ist, wie berechnet man gegebenfalls eine invertierbare Matrix P f ur die P 1 AP eine Diagonalmatrix ist? Und was sind die Eintr age dieser Diagonalmatrix? 8.2-32 Prozedur: Ist A eine diagonalisierbare n n-Matrix, dann kann man P und die Diagonalmatrix wie folgt berechnen: 1. Man berechne das charakteristische Polynom A t. 2. Man bestimme dessen Nullstellen. Da A diagonalisierbar ist, erh alt man A t f ur die paarweise verschiedenen Eigenwerte i
i

k i 1

t i

3. 4.

K , wobei i m f t gesetzt wird. Man bestimme eine Basis Bi von kerf V f . Dann ist B B1 B2 Bk eine Basis von K n . Sei P id En , B . Dann ist P 1 AP diag 1 , . . . , 1 , 2 , . . . , k , . . . , k , wobei i genau m f t dimkerf oft als Eintrag in der Diagonalmatrix vorkommt.
i i i i

Ob eine gegebene Matrix diagonalisierbar ist, kriegt man heraus, indem man versucht, die Prozedur auf A anwenden. Wenn man das nicht schat (weil A t nicht in Linearfaktoren zerf allt oder B zu wenig Vektoren enth alt, um eine Basis zu sein), dann war A nicht diagonalisierbar. 8.2-33 Probleme: 1. Zeigen Sie, dass A diagonalisierbar ist und bestimmen P ist.

3 2 2 6 0 0

1 2 M3 R
2 Diagonalmatrix

GL3 R und ihre Inverse, sodass P 1 AP

2. Warum ist eine quadratische Matrix A genau dann invertierbar, wenn 0 kein Eigenwert von A ist?

8.3

Direkte Summen und Blockdiagonalform


106

8.3-1 Denition/Satz: Seien V1 , V2 , . . . , Vk Vektorr aume u ber K und seien Endomorphismen fi : Vi Vi f ur i 1, 2, . . . , k gegeben. Dann wird durch

mit vi

Vi ein Homomorphismus

f v1 , . . . , vk
k

f1 v1 , . . . , fk vk
k k

f
i 1

fi :
i 1

Vi
i 1

Vi

deniert. Dieser wird die direkte Summe der Endomorphismen fi genannt. ur i 1, . . . , k und sei 8.3-2 Lemma: In der Situation der vorigen Denition sei Bi eine Basis von Vi f die Dimension von Vi gleich ni . Sei Ai B1 Bk fi Bi und sei f die direkte Summe der fi . Sei B in der einzig nat urlichen Ordnung, die man sich hier denken kann (welche ist das?). Dann ist

B
f

A1 0 . . . 0

0 A2

0 0 .. .

... ...

...

Ak1 0 0 Ak

0 0 . . .

A,

wobei die Ai selbst ni ni -Matrizen sind. Die Matrix


f

B im Lemma oben heit Blockdiagonal -Matrix und wird auch mit B diag A , . . . , A
f 1 k

bezeichnet. Wie gro ist die Matrix? 8.3-3 Lemma: In der Situation des vorigen Lemmas ist det f detA1 detA2 detAk
k i 1

det fi .

8.3-4 Korollar: Seien die Bezeichnungen wie in den vorigen Lemmata. Dann gilt: f t f1 tf2 t fk t.

8.3-5 Korollar: Sei f ein Endomorphismus des endlich dimensionalen Vektorraums V , und sei V V1 V2

det fi

Vk

eine Zerlegung von V als direkte Summe von f -invarianten Unterr aumen. Sei fi die Einschr ankung von f auf Vi . Dann ist det f und f t
k i 1 k i 1

fi t .

Wir wollen diese Ergebnisse nochmals verallgemeinern: 107

8.3-6 Denition: Eine n n-Matrix A hat:

ij ist eine (obere) Blockmatrix falls sie die folgende Form

B 0

C . D

Hier ist B ij 1 i,j r eine r r-, D analog eine n r n r- und C ist eine r n r-Matrix. Untere Blockmatrizen werden ahnlich deniert. 8.3-7 Satz: Sei A eine Blockmatrix mit Bl ocken B, C, D wie in obiger Denition. Dann ist det A und A t det B det D, B tD t.

8.3-8 Bemerkung: Nat urlich l asst sich obiger Satz auf mehr als zwei Bl ocke auf der Diagonalen verallgemeinern. die Einschr 8.3-9 Problem: Sei f EndK V und sei U ein f -invarianter Unterraum. Sei f ankung der induzierte Endomorphismus von V U , der durch von f auf U und f : V U f V U : v U f v U

anzt deniert ist. Sei B1 eine geordnete Basis von U , die durch B2 zu einer Basis B B1 B2 von V erg ist wohldenierter Endomorphismus wird. Dann ist B2 b U b B2 eine Basis von V U . Zeigen Sie: f von V U , und es gilt B1 f f B 0 B2 f

Wie lautet die Endomorphismenversion von Satz 8.3-7?

108

Kapitel 9

Euklidische und Unit are Vektorr aume


Jetzt wirds geometrisch! Was ist Geometrie? Der Begri Geometrie kommt aus dem Griechischen und bedeutet Landvermessung. Geometrie hat also mit Messen zu tun. Die einfachsten Messungen, die man durchf uhren kann, sind L angenmessungen. Aber man will auch die relative Lage zweier Strecken oder Geraden zueinander beschreiben, und das geschieht durch Winkelmessung. Damit hat man aber schon zwei wichtige Ingredienzien, um Geometrie treiben zu k onnen. Wie wir sp ater sehen werden, liegen aber beiden Betrachtungsweisen lineare R aume bzw. gewisse Verallgemeinerungen hiervon zugrunde. Wir wollen also Messungen in Vektorr aumen einf uhren, genauer in reellen oder komplexen Vektorr aum en, und zwar L angen- und Winkelmessungen. Die L ange eines Vektors kann man mit Hilfe einer Norm denieren: 9.0-1 Denition Norm: Sei V ein K -Vektorraum, K eine Abbildung von V nach R, f ur die gilt: 1. v 2. v 0 f ur alle v v1 R oder K C. Eine Norm

auf V ist

und

3. v1 v2

v f ur alle v

V, K ,

0v

0,

v2 f ur alle v1 , v2

V . (Dreiecksungleichung)

Dabei ist f ur K der Absolutbetrag von . Die Dreiecksungleichung heit so, weil sie besagt, dass die L ange einer Dreiecksseite kleiner h ochstens gleich der Summe der L angen der gegen uberliegenden Seiten ist. Bedingungen 2. und 3. in der Denition stellen sicher, dass Addition von Vektoren und Multiplikation mit Skalaren stetige Funktionen werden. Deniert man n amlich als Abstand dv1 , v2 zweier Vektoren v1 , v2 V dv1 , v2 v1 v2 , so wird V zum metrischen Raum, und man hat einen Stetigkeitsbegri. Ein Vektorraum V zusammen mit einer Norm auf V heit normierter Vektorraum. Hier sind jede Menge von Beispielen, um es genau zu sagen u ahlbar viele: berabz 9.0-2 Beispiel Ohne Beweis: Abbildungen Normen auf V : 1. v 2. v
p

Sei V n. p .

K n , und v

1 , . . . , n

V . Dann sind alle folgenden

max j
p

1 j
p

j f ur 1

n j 1

109

Um nun auch eine vern unftige Messung von Winkeln zu erm oglichen, muss man das Konzept der Norm versch arfen. Dies geschieht mit Hilfe von sogenannten inneren Produkten oder Skalarprodukten .

9.1

Skalarprodukte

Hier ist eine Denition von Funktionen, die (im Falle K R oder mit einer leichten Modikation K C) nicht nur die L ange von Vektoren, sondern auch Winkel zwischen zwei solchen einf angt. Da Winkel zwei Argumente involvieren, ist es keine Uberraschung, dass man Funktionen zweier Ver anderlicher ben otigt: 9.1-1 Denition: Sei K ein K orper und V ein K -Vektorraum. Eine Abbildung

, : V V K : x, y x , y heit bilinear , falls f ur x, y, z V und K gilt: x y , z x , z y , z x , y x , z x , y z x , y x , y . x , y


Wir beschr anken uns zun achst auf reelle Vektorr aume: 9.1-2 Denition: Sei metrisch , falls ist f ur alle x, y

, eine Bilinearform auf dem reellen Vektorraum V . Dann heit diese symx , y y , x x , x
0

V . Ist x , x

f ur alle x V , so heit sie positiv semidenit und positiv denit , falls ist f ur alle x V . Eine positiv denite symmetrische Bilinearform heit Skalarprodukt auf V , und V zusammen mit einem Skalarprodukt heit euklidischer Vektorraum. Achtung: Ein Skalarprodukt ist von der skalaren Multiplikation zu unterscheiden! 9.1-3 Beispiel: 1. Auf dem Rn denieren wir: 0 und x , x 0 x 0

1 , . . . , n , 1 , . . . , n
2. Seien 0

n i 1

i i .

a, b R. Wir denieren auf dem R2 eine Bilinearform

1 1 2 . 2 a b 3. Nun ein etwas komplizierteres Beispiel: Als reellen Vektorraum nehmen wir die Menge aller stetigen Funktion auf dem Intervall a, b mit a b R: V und denieren

, , , f : a, b

R f ist stetig ,

, : V V

R : f, g

f , g

b
a

f tg tdt.

110

9.1-4 Probleme zu Beispiel 9.1-3: zu 2. Was ist die Menge der Punkte x R2 mit x , x zu 3. Warum ist

, u berhaupt Bilinearform, warum symmetrisch, warum positiv denit?

1?

Wie wir sehen werden, k onnen wir mit Hilfe eines Skalarprodukts die L ange x eines Vektors x V durch x x , x denieren, in der Tat wird dadurch V zum normierten Vektorraum im Sinne von Abschnitt 9.0. Der Winkel zwischen den Vektoren x und y von V ist dann indirekt durch cos cosx, y

x , y x y

deniert. Um zu sehen, dass dies auch wirklich funktioniert (was heit hier funktionieren?), m ussen wir noch eine ganze Menge zeigen. Klar ist aber, dass vern unftigerweise die L ange eines Vektors ( 0) eine positive reelle Zahl sein sollte, und der Winkel zwischen zwei Vektoren sollte nicht von deren Reihenfolge abh angen! Allerdings gibt es Geometrien, f ur die von diesen Prinzipien abgewichen wird. 9.1-5 Problem: Was genau geht schief, wenn man ein Skalarprodukt f ur den C2 durch

, , ,
deniert?

, , ,

Wie wir am obigen Problem gesehen haben, m ussen wir uns etwas einfallen lassen, um zu einer vern unftigen Denition eines Skalarprodukts f ur komplexe Vektorr aume zu kommen. Die Idee ist, auf den Absolutbetrag einer komplexen Zahl zu starren, und dies zu verallgemeinern: i f ur , f ur z 2 2 z

i i
zz

R, das heit
i C, wobei z

i die zu z konjugiert komplexe Zahl ist.

9.1-6 Problem: Zeigen Sie, dass

:C

C:z

ein K orperautomorphismus der komplexen Zahlen ist. Wir werden also ein bisschen an der Denition einer bilinearen Abbildung drehen: 9.1-7 Denition: Sei V ein komplexer Vektorraum. Eine hermitische Form , auf V ist eine Abbildung, die jedem Paar x, y von Vektoren eine komplexe Zahl x , y zuordnet, sodass f ur alle x, y, z V und C gilt: 1. x y , z x , z y , z , 2. x , y x , y , 3. x , y y , x.

So ersetzt man die Symmetrie bei reellen Vektorr aumen durch die Eigenschaft 3. oben. Unmittelbar folgt nun:

111

9.1-8 Lemma: F ur eine hermitische Form gilt mit obigen Bezeichnungen: 1. x , y z x , y x , z , 2. x , y x , y , 3. x , x R. Wegen 3. in obigem Lemma k onnen wir wieder positiv denite und positiv semidenite hermitische Formen denieren: 9.1-9 Denition: Eine hermitische Form heit positiv semidenit , wenn x , x 0 ist f ur alle x V und positiv denit, falls aus x 0 stets x , x 0 folgt. Eine positiv denite hermitische Form auf einem komplexen Vektorraum V heit Skalarprodukt auf V , und V heit dann zusammen mit dieser Form unit arer Raum . 9.1-10 Beispiel: 1. Auf V Cn denieren wir

1 , . . . , n , 1 , . . . , n
2. Auf dem C2 setzen wir

n i 1

i i .

, , ,

4 2 2 3.

Im folgenden sei nun, wenn nichts anderes gesagt, K stets der K orper der reellen oder komplexen Zahlen, V ein K -Vektorraum und , eine bilineare bzw. hermitische Form auf V , sodass V mit dieser Form einen euklidischen oder unit aren Raum bildet. Nun k onnen wir Vektoren mit einer L ange versehen: ange oder Norm von x ist die reelle Zahl 9.1-11 Denition: Sei x V . Die L x Insbesondere ist x 0 genau dann, wenn x

x , x.
0 ist.

Nat urlich h angt die L ange x eines Vektors x ganz wesentlich von der Wahl des Skalarprodukts ab. Die Frage erhebt sich nun nat urlich, ob diese Norm unseren Vektorraum V zum normierten Vektorraum im Sinne von Abschnitt 9.0 macht. 1. in Denition 9.0-1 ist erf ullt, da . , . positiv denit ist, also ist x x , x 0, und f ur x 0 gilt sogar x x , x 0. 2. ist ebenfalls erf ullt: x 9.1-12 Lemma: Sei 0

x , x
x x

2 x , x

a x

x V . Dann hat

die L ange 1.

Vektoren der L ange 1 heien normiert oder Einheitsvektoren . Wie steht es nun mit der Dreiecksungleichung? Versuchen Sie einmal, diese direkt aus unseren bisherigen Axiomen herzuleiten! F ur ihren Beweis braucht man den folgenden grundlegenden Satz:

112

9.1-13 Satz Cauchy-Schwarzsche Ungleichung: und seien x, y V . Dann ist x , y Anders ausgedr uckt ist Wir haben zwei wichtige Folgerungen:

Sei V ein euklidischer oder unit arer Vektorraum, x

y .

x , y

x , x y , y.

9.1-14 Korollar: Sei V ein euklidischer oder unit arer Vektorraum und sei x f ur x V wie in Denition 9.1-11. Dann ist V zusammen mit ein normierter Vektorraum im Sinne von Denition 9.0-1, d. h. erf ullt insbesondere die Dreiecksungleichung xy x

x, y V.

Die zweite Folgerung erm oglicht die Denition von Winkeln, zumindest im Falle von euklidischen Vektorr aumen: 9.1-15 Korollar: Sei V euklidischer oder unit arer Vektorraum und von x , y cosx, y x y eine reelle nichtnegative Zahl Intervall 1, 1. Es ist also wie oben. Dann ist der Betrag

1. Insbesondere ist cosx, y f ur euklidische Vektorr aume eine Zahl im

x , y

y cosx, y

9.1-16 Bemerkung: Rechnet man das Skalarprodukt x y , x y aus und ersetzt x , y durch obige Formel, so erh alt man im reellen Fall xy
2

cosx, y,

was der bekannte Kosinussatz ist: Bilden x und y zwei Seiten eines Dreiecks, so ist die L ange der Seiur einen rechten Winkel , te, die dem Winkel zwischen x und y gegen uberliegt, gerade x y . F d. h. cosx, y 0 erh alt man den Satz von Pythagoras. 9.1-17 Denition Winkel: Sei V ein euklidischer Vektorraum, x, y zwischen x und y gegeben durch x , y . cos cosx, y x y

V . Dann ist der Winkel

ist hier nicht ganz eindeutig, zum einen, weil 2 und 0 als Winkel gleich sind, zum anderen ist es nicht ganz klar, wie herum der Winkel orientiert werden soll. Kurz gesagt: Die Kosinusfunktion ist nicht injektiv. Und gleich das zweite Problem: Was machen wir f ur unit are Vektorr aume? Da ist cosx, y nicht unbedingt reell. Die Antwort ist einfach: Wir brauchen f ur viele Anwendungen gar keine wirklichen Winkel, sondern nur das Konzept zweier zueinander senkrechter , d.h. orthogonaler Vektoren. Das k onnen wir aber auch im Komplexen haben:

113

9.1-18 Denition Orthogonalit at: Sei V ein euklidischer oder ein unit arer Raum und seien x, y V . Dann heien x und y orthogonal , falls x , y 0 ist. Wir bezeichnen diesen Sachverhalt durch x y . Zwei nichtleere Teilmengen M und N von V heien orthogonal, falls x y ist f ur alle x M und y N . Die Menge der zu M orthogonalen Vektoren ist ein Unterraum von V und wird mit M bezeichnet. Nat urlich ist eine symmetrische Relation auf V . Eine nichtleere Teilmenge M von V , die aus paarweise orthogonalen Elementen besteht, von denen keines der Nullvektor ist, heit orthogonales System in V . Sind zus atzlich alle Vektoren in M normiert, so spricht man von einem orthonormalen System. Wir haben den wichtigen Satz: angig. 9.1-19 Satz: Ein System orthogonaler Vektoren in V ist linear unabh Ein orthonormales System, das V erzeugt, heit Orthonormalbasis (kurz ONB ) von V . Wir stellen nun das ber uhmte Orthonormalisierungsverfahren nach Jorgen Pedersen Gram (1850-1916) und Erhard Schmidt (1876-1959) vor, das aus einer beliebigen Basis eines euklidischen oder unit aren Raumes h ochstens abz ahlbarer Dimension eine ONB produziert: 9.1-20 Prozedur: Sei V ein euklidischer oder unit arer Vektorraum, und sei B v1 , v2 , . . . eine linear unabh angige Teilmenge von V . Sei B entweder endlich oder abz ahlbar unendlich. Sei E e1 , e2 , . . . (von derselben M achtigkeit n N wie B ) folgendermassen induktiv deniert: 1. e1 2. Ist k N mit k setzen v1 . v1 i

n, dann nehmen wir an, dass ei f ur 1 uk vk


k 1 i 1

k 1 bereits deniert ist. Wir


uk . uk

vk , ei ei und ek

Beachten Sie, dass dieses Verfahren wirklich konstruktiv ist. Zumindest f ur endlichdimensionale euklidische oder unit are Vektorr aume kann man damit ein solches E aus jeder gegebenen Basis B in endlich vielen mechanischen Schritten ausrechnen. 9.1-21 Satz Gram-Schmidt: Seien V , B und E wie oben, und f ur k N, k n sei Bk v1 , . . . , vk und Uk Bk . Dann ist Ek e1 , . . . , ek eine ONB von Uk und E ist eine ONB von V . Die Basiswechselmatrix Mk idV Ek , Bk

ist eine obere Dreiecksmatrix mit positiver Determinante. Was macht ONBs so sch on? Erstens kann man mit Hilfe des Skalarprodukts leicht die Koezienten eines beliebigen Vektors bez uglich einer ONB ausrechnen. Zweitens lassen sich Skalarprodukte zweier Vektoren, deren Koezienten bez uglich der ONB bekannt sind, leicht bestimmen: 9.1-22 Korollar: 1. Sei E

e1 , e2, . . . eine ONB von V

mit n x

dim V
n i 1

N und x V . Dann ist

x , e i e i .

114

2. Ist x

1 e1 2 e2 V und y

(wobei im euklidischen Fall

x , y 1 1 2 2 f ur R ist).

1 e1 2 e2 V , so ist

Hier passiert etwas ahnliches wie am Anfang bei der Einf uhrung von Vektorr aumen: Wir hatten in Beispiel 9.1-3 den Rn mit dem gew ohnlichen Skalarprodukt eingef uhrt, als Beispiel und Motivation f ur die allgemeinere Denition von euklidischen Vektorr aumen (Denition 9.1-2). Und nun stellen wir fest, dass wir im wesentlichen doch wieder den Rn mit dem gew ohnlichen Skalarprodukt vor uns haben. Wir werden das weiter unten pr aziser formulieren. Ist man nur an Orthogonalit at, nicht aber an normierten Vektoren interessiert, so benutzt man das folgende modizierte Gram-Schmidt-Verfahren: 9.1-23 Satz: Sei V ein Vektorraum mit einem Skalarprodukt, und sei B unabh angige Teilmenge. Deniere induktiv E x1 , x2 , . . . durch: 1. x1 v1 .
k 1 i 1

v1 , v2 , . . .

eine linear

2. Sind x1 , . . . , xk1 schon gefunden, so denieren wir xk durch: xk vk

v , x k i
xi
2

xi

f ur k

2, 3, . . . .

Dann ist E ein System orthogonaler Vektoren in V . 9.1-24 Beispiel: Sei V R3 mit dem Standardskalarprodukt und Basis B v1 , v2 , v3 mit v1 1, 1, 0, v2 2, 0, 1 und v3 2, 2, 1 gegeben. Wir wollen diese Vektoren orthogonalisieren. Dazu setzen wir x1 v1 und errechnen x2 durch x2 und x3 durch x3 v3 v2

v2 , x1 x
x1
2

2 , 0 , 1 2 1, 1, 0 1, 1, 1 2
1 1, 1, 2. 3

v3 , x1 x v3 , x2 x 2, 2, 1 4 1, 1, 0 1 1, 1, 1 1 2 2 2 2 3
x1 x2

Fourier, Jean-Baptiste Joseph, Baron de (17681830), franz osischer Mathematiker und Physiker, Mitglied der Academie des Sciences. Er entdeckte im Rahmen seiner Arbeiten u arme ber die Theorie der W ausbreitung die nach ihm benannte Fourieranalyse , in der Funktionen als Reihen von trigonometrischen Funktionen dargestellt werden. Diese Methoden erwiesen sich insbesondere in der theoretischen Physik als auerst fruchtbar. 9.1-25 Denition Fourierkoezienten: Sei B ein System orthonormaler Vektoren in einem Vektorraum V mit Skalarprodukt und sei x V . Dann heien die Skalare x , y mit y B Fourierkoezienten von x bez uglich B . Bevor wir uns dem n achsten Beispiel zuwenden, brauchen wir noch einige Tatsachen u ber komplexwertige Funktionen, d. h. Funktionen von einer Teilmenge von R nach C. Die imagin are Einheit i kann bez uglich der Integration als Konstante betrachtet werden. Ist f f1 if2 eine komplexwertige Funktion mit Realteil f1 und Imagin arteil f2 , so gilt f ur das Integral:

f1 i

f2 und

f.

115

9.1-26 Beispiel: Sei H C1, 2 der komplexe Vektorraum der komplex-wertigen stetigen Funktionen auf dem abgeschlossenen Intervall 0, 2 . Wir denieren das Skalarprodukt von f, g H durch:

f , g

1 2

2
0

f tg tdt.

Damit wird H ein unit arer Raum. Wir betrachten E eimx m Z. Dann haben wir f ur m, k Z, m


k: 0

eimx , eikx

1 2


eimt eikt dt
0

1 2
2
0

2
0

eimkt dt

2 1 eimkt 2im k 0

und

eimx , eimx

1 2

eimmt dt

1 2

dt
0

und daher ist E ein System orthonormaler Vektoren in H . Sei nun f n von f gegeben als: 1 2 f teint dt. n 2 0 Man kann nun zeigen, dass die Folge sn,m f
k n

H . Dann ist der Fourierkoezient

k eikx

im Sinne der Norm aus Denition 9.1-11 gegen f konvergiert, d. h. f

sn,m

f sn,m , f sn,m
f

n Z

0 f ur n, m

Wir k onnen also schreiben:

n einx .

F ur f

x erhalten wir etwa (unter Anwendung von partieller Integration) n 0




f , einx 1 2

f , 1
f x x

2
0

1 2

2
0

teint dt .

1 f ur n in

t 1dt

Daher ist
0

1 inx e in nZ

1 cosnx i sinnx in nZ 1 sinnx i cosnx. n nZ

Hier ist eine Interpretation dieser Formel: Wenn wir einx in seinen Real- und seinen Imagin arteil cosnx und i sinnx zerlegen, so gibt der Fourierkoezient n den Anteil (Amplitude) der Frequenz n in der 116

1 . Das heit aber nat urlich nicht , dass E eine Basis von Funktion f an. In unserem Beispiel ist das gerade n H als C-Vektorraum gem a Denition 4.4-9 ist, da man im allgemeinen nicht n 0 f ur fast alle n Z hat. In der Tat hat H u berabz a hlbare Dimension, w a hrend E abz a hlbar ist. Ein abz ahlbares System orthonormaler Vektoren, das die Eigenschaft hat, dass jeder Vektor sich als unendliche Linearkombination wie oben schreiben l asst, nennt man Schauderbasis des zugrunde liegenden Vektorraums. (Schauder, Pawel Juliusz, 1896-1943). Wie etwa bei H oben macht es durchaus Sinn, solche verallgemeinerten Basen zu betrachten, insbesondere, da man in solchen Vektorr aumen eine gew ohnliche Basis nur per Auswahlaxiom hat, und daher eine solche prinzipiell nicht konstruierbar ist. Eine Schauderbasis hingegen kann man oft konstruieren. Aber nat urlich muss man an anderer Stelle einen Preis zahlen: Man kann nicht mehr die Elemente des Vektorraums als beliebige unendliche Linearkombinationen einer Schauderbasis darstellen, nicht alle solche Linearkombinationen sind erlaubt, sondern nur solche, die auch konvergieren! Die Kunst wird sein, ausgehend von einer abz ahlbaren Menge linear unabh angiger Vektoren, nach Orthonormalisierung mit Gram-Schmidt zu zeigen, dass man wirklich eine Schauderbasis hat, d. h. dass jeder Vektor sich durch Linearkombinationen des gewonnenen Systems orthonormaler Vektoren approximieren l asst. Aber mehr davon sp ater.

Hier sind noch weitere Anwendungen: 9.1-27 Satz: Sei V ein Vektorraum mit Skalarprodukt, M, N V . Sind M und N orthogonal, so ist 0 und daher die Summe M N direkt. Insbesondere ist M M direkt. Ist M endlichM N dimensional, so ist V M M . Der Unterraum M ist das eindeutig bestimmte orthogonale Komplement von M in V . Jeder zu M orthogonale Unterraum von V ist in M enthalten. So hat M zwar viele Komplemente, aber nur ein orthogonales Komplement, n amlich M . Dieses h angt aber nat urlich vom gew ahlten Skalarprodukt ab! Man hat nun unmittelbare Folgerungen: 9.1-28 Folgerungen: Sei V ein euklidischer oder unit arer Vektorraum. 1. Ist W V endlich dimensional mit orthonormaler Basis e1 , . . . , ek und ist y genau ein z W mit y Der Vektor y1
k

V , dann gibt es

y , ei ei z.
k i 1

i 1

y , ei ei u W

ist der eindeutig bestimmte Vektor von W , der y am n achsten ist, d.h. yu und z y y1 y y1

, und sei e1 , . . . , ek ein System orthonormaler Vektoren in V . Dann kann 2. Sei dimK V n dies zu einer orthonormalen Basis e1 , . . . , ek , ek1 . . . en von V erg anzt werden und ek1 , . . . , en spannt das orthogonale Komplement zu W e1 , . . . , ek auf und ist ONB desselben.

W .

117

3. Ist dimK V

und W

V , so ist dimK V dimK W dimK W

f ur alle Unterr aume W von V . Klar ist auch das folgende Korollar: arer Vektorraum und sei M 9.1-29 Korollar: Sei V ein endlich-dimensionaler euklidischer oder unit ein Unterraum. Dann ist M M.

9.2

Euklidische Vektorr aume: Orthogonale Abbildungen

Gegenst ande der Untersuchungen in der Mathematik sind Strukturen (deniert u ber Axiome) und strukturerhaltende Abbildungen, sogenannte Morphismen . Uns sind schon einige solcher Strukturen zusammen mit ihren Morphismen (man nennt so etwas eine Kategorie ) begegnet: Struktur Gruppen Ringe K orper Algebren Vektorr aume Metrische R aume Euklidische Vektorr aume Unit are Vektorr aume Morphismen Gruppenhomomorphismen Ringhomomorphismen K orperhomomorphismen Algebrenhomomorphismen lineare Abbildungen Stetige Abbildungen ??? ???

1. 2. 3. 4. 5. 6. 7. 8.

Wir suchen also Abbildungen von euklidischen oder unit aren Vektorr aumen, die nicht nur ihre algebraische Struktur (Vektorraumstruktur), sondern auch ihre geometrische Struktur, d. h. L ange und Orthogonalit at (Winkel) erhalten. Der Einfachheit halber beschr anken wir uns nun zun achst auf euklidische Vektorr aume, um dann in einer sp ateren Runde unit are R aume miteinzubeziehen. Seien im folgenden V und W euklidische Vektorr aume. 9.2-1 Denition: Seien V, W euklidische Vektorr aume und sei f : V Dann heit f orthogonale Abbildung, falls W eine lineare Abbildung.

f x , f y x , y x, y V
gilt. Ist f ein orthogonaler Isomorphismus, so spricht man auch von einer Isometrie . 9.2-2 Satz: Seien V ein euklidischer Vektorraum endlicher oder abz ahlbar unendlicher Dimension, und W ein beliebiger euklidischer Vektorraum. Sei f : V W ein Homomorphismus. Dann sind folgende Aussagen aquivalent: 2. Sei x V . Dann gilt: x 3. x f x 1. f ist orthogonale Abbildung. 1 f x 1.

x V .

118

4. Ist E

e1 , e2 , . . . ein System orthonormaler Vektoren in V , so ist E f f e1 , f e2 , . . .

ein ebensolches in W . 5. Es gibt eine ONB B von V , sodass B f Orthonormalsystem ist. Unmittelbar daraus folgt: 9.2-3 Korollar: Eine orthogonale Abbildung ist injektiv. Ist insbesondere dimR V W eine orthogonale Abbildung, so ist f eine Isometrie. f :V dimR W und ist

Euklidische Vektorr aume heien isometrisch , falls es eine Isometrie zwischen ihnen gibt. Man sieht auch leicht, dass die Komposition zweier orthogonaler Abbildungen wieder orthogonal, und das Inverse einer Isometrie wieder Isometrie ist. Wir haben daher: 9.2-4 Korollar: Die Menge der Isometrien eines euklidischen Vektorraums V in sich ist eine Untergruppe der vollen linearen Gruppe GLR V , die orthogonale Gruppe OR V . Sei nun dimR V n. Den Rn versehen wir mit dem nat urlichen Skalarprodukt (erstes Beispiel in 9.1-3). Die zugeh orige orthogonale Gruppe wird dann auch mit On R bezeichnet. Sei B x1 , . . . , xn eine orthonormale Basis von V . Wir denieren f :V Dann gilt: 9.2-5 Satz: Sei f : V Rn wie oben deniert. Dann ist f eine Isometrie, und V und Rn sind isometrisch. Das Bild der orthonormalen Basis B von V unter f ist die nat urliche Basis des Rn . 9.2-6 Problem: Zeigen Sie: Isometrische euklidische Vektorr aume haben isomorphe orthogonale Gruppen. Wir haben also wieder eine a aumen: Dahnliche Situation wie am Anfang der Vorlesung mit den Vektorr mals starteten wir mit dem Rn (bzw. K n ), denierten abstrakt Vektorr aume nur um dann festzustellen, dass durch die Einf uhrung einer Basis das Ganze wieder auf den K n zur uckgef uhrt ist. Hier tut man dasselbe, man zeigt, dass im Wesentlichen die R aume Rn mit dem nat urlichen Skalarprodukt alle euklidischen endlich-dimensionalen Vektorr aume abdecken. Warum aber die M uhe? In der Natur kommen durchaus Vektorr aume und reelle Vektorr aume mit Skalarprodukt vor, die nicht in Standardform sind, und dann hilft uns das obige Verfahren, diese auf Bekanntes zur uckzuf uhren. 9.2-7 Bemerkung: Sind A und B zwei n n-Matrizen, so ist der ij -te Eintrag der Produktmatrix AB gerade das Skalarprodukt von Zeile i von A mit Spalte j von B oder aquivalent mit Zeile j von der transponierten Matrix B t . Was schlieen wir daraus? Rn :
n i 1

i xi

1 , 2 , . . . , n Rn .

119

9.2-8 Lemma: Die Spalten- (bzw.Zeilen-)vektoren einer reellen n n-Matrix A dann eine orthonormale Basis von Rn , wenn AAt ist, d.h. gilt. Eine invertierbare n n-Matrix A mit A1 symmetrisch . At A At En

rl bilden genau

A1

At nennt man orthogonale Matrix. Ist At

A, so heit A

9.2-9 Korollar: Sei V Rn , versehen mit dem Standardskalarprodukt. Die Elemente von V seien als Spaltenvektoren geschrieben. Seien A rl eine reelle n n-Matrix und fA der Endomorphismus von V , den man durch Linksmultiplikation mit der Matrix A erh alt: fA x Ax.

Dann ist die nat urliche Basis von V orthonormal, und fA ist orthogonale Abbildung genau dann, wenn A orthogonale Matrix ist. So ist OR V On R

A GLn R

A1

At .

9.2-10 Korollar: Sei f ein Endomorphismus des euklidischen Vektorraums V der Dimension n. Sei B eine orthonormale Basis von V und A rl f B , B . Dann ist f genau dann orthogonal, wenn A orthogonal ist. 9.2-11 Korollar: Sei E eine Orthonormalbasis des euklidischen Vektorraums V endlicher Dimension. Dann ist eine Basis B von V genau dann orthonormal, wenn die Basiswechselmatrix A orthogonal ist. In diesem Fall ist dann die inverse Matrix A1

idV

E , B

idV

B, E

besonders einfach als At zu berechnen! (Allerdings steckt im Normalfall eine erheblicher Rechenaufwand in der Berechnung einer orthonormalen Basis B !) Man kann zeigen, dass OR Rn genau aus den Drehungen und Spiegelungen des Rn besteht. 9.2-12 Korollar: Die Determinante einer orthogonalen Abbildung fA ist Drehungen haben positive, Spiegelungen negative Determinanten.

1.

9.3

Hauptachsentheorem

120

9.3-1 Denition: Eine n n-Matrix heit symmetrisch , falls At

A ist.

Erinnern Sie sich an unser Programm der besonders sch onen Matrizen? Klar ist, diagonalisierbare Matrizen sind besonders sch on, und so wollen wir in diesem Abschnitt das folgende sch one Resultat beweisen: 9.3-2 Satz Hauptachsentheorem: Symmetrische reelle Matrizen sind diagonalisierbar. Wir werden sogar noch mehr zeigen: Das Diagonalisieren einer symmetrischen, reellen n n-Matrix kann man durch Konjugation mit einer orthogonalen Matrix erreichen, und die kann man mit Hilfe von GramSchmidt algorithmisch ausrechnen. Den allgemeineren Fall komplexer Vektorr aume verschieben wir auf den n achsten Abschnitt. 9.3-3 Denition: Zwei Endomorphismen f und g eines euklidischen Vektorraums V heien orthogonal aquivalent , falls es einen orthogonalen Automorphismus p von V mit g p1 f

gibt. Analog deniert man orthogonal aquivalente quadratische reelle Matrizen. Hier ist nun die volle Version des Hauptachsentheorems: 9.3-4 Satz Hauptachsentheorem 2: zu einer Diagonalmatrix. Jede reelle symmetrische n n-Matrix ist orthogonal aquivalent

Zum Beweis ben otigen wir noch einige Ergebnisse: 9.3-5 Satz: Sei K ein K orper und sei A eine symmetrische n n-Matrix uber K . Seien , Eigenwerte mit Eigenvektoren x1 y1 x2 y2 x . bzw. y . K n . . . . . xn Ist , dann gilt xt y
n i 1

yn 0 K.

xi yi

Dieses Ergebnis gilt f ur symmetrische Matrizen u orpern, f ur den K orper der reellen ber beliebigen K Zahlen bedeutet es aber: 9.3-6 Korollar: Sei A eine symmetrische reelle n n-Matrix. Dann sind Eigenvektoren von A zu verschiedenen Eigenwerten orthogonal bez uglich des Standardskalarprodukt auf Rn . Eigenr aume zu verschiedenen Eigenwerten sind paarweise orthogonal. Wir denken uns nun die reellen Zahlen als Teilmenge von C. Nun ist aber C nach dem Hauptsatz der Algebra algebraisch abgeschlossen. 9.3-7 Satz: Sei A Mn R Mn C. Sei C ein komplexer Eigenwert mit Eigenvektor x Cn von A. Dann ist x Eigenvektor von A zum Eigenwert . 9.3-8 Satz: Die Eigenwerte symmetrischer reeller n n-Matrizen sind alle reell.

121

9.3-9 Korollar: Das charakteristische Polynom einer reellen symmetrischen n n-Matrix A zerf allt u ber den reellen Zahlen in Linearfaktoren. 9.3-10 Satz: Sei A eine reelle symmetrische n n-Matrix. Dann besitzt Rn eine Basis aus Eigenvektoren von A. Die folgende Prozedur ist nun ein konstruktiver Beweis f ur das Hauptachsentheorem. 9.3-11 Prozedur: Sei A eine symmetrische reelle n n-Matrix. Wir bestimmen eine orthogonale n n-Matrix P (d. h. P 1 P t ) mit P 1 AP P t AP D

mit einer Diagonalmatrix D, indem wir folgende Schritte ausf uhren: 1. Wir berechnen das charakteristische Polynom A t von A und zerlegen es in Linearfaktoren (Korollar 9.3-9 garantiert, dass dies geht!): A t

t 1 k t 2 k t s k .
1 2 s

So sind also die i paarweise verschieden und kommen mit Vielfachheit ki vor. Die Matrix D haben wir nun schon:

diag

2 , . . . , 2 , . . . s , . . . , s 1 , . . . , 1 ,
k1 viele k2 viele ks viele

2. F ur jeden Eigenwert i berechnen wir eine Basis Bi des zugeh origen Eigenraums Ei . Dann muss nach Satz 9.3-10 dessen Dimension ki sein und die Ei sind paarweise orthogonal. 3. Falls n otig orthonormalisieren wir Bi mit Hilfe von Gram-Schmidt, um eine orthonormale Basis Ci von Ei zu erhalten. 4. Die Ci sind ja schon paarweise orthogonal, also ist auch
s

C
i 1

Ci

eine disjunkte Vereinigung und orthonormale Basis von Rn . Sei En die nat urliche Basis von Rn . Dann ist die Basiswechselmatrix P id En , C

id

nach Korollar 9.2-11 orthogonale Matrix. Insbesondere ist P 1 und man hat

C , En
P t AP

Pt D.

P 1 AP

Die Voraussetzung, dass wir es mit reellen Matrizen zu tun haben, ist im Hauptachsentheorem wesentlich:

122

9.3-12 Beispiel: Hier ist ein Beispiel einer symmetrischen komplexen Matrix, die nicht diagonalisierbar ist: 2i 1 . A 1 0 Wir haben A t tt 2i 1 t2 2it 1

und daher ist i der einzige Eigenwert. Man sieht aber unmittelbar, dass rgA iE Eigenraum zum Eigenwert i nur eindimensional sein kann.

t i2

1 ist, d. h. der

Woher kommt der Begri Hauptachsentheorem? Der Prozedur k onnen wir entnehmen, dass man eine Basis aus orthonormalen Eigenvektoren von A durch eine orthogonale Transformation erh alt. Dies l asst sich aber im Rn als Drehung oder Spiegelung interpretieren: Man dreht bzw. spiegelt das gew ohnliche kartesische Koordinatensystem mit Hilfe der orthogonalen Matrix P und erh alt neue Koordinaten, bzgl. derer die zu A geh orende lineare Transformation fA von Rn Diagonalgestalt hat, d. h. durch Dehnungen um den Faktor Eigenwert in Richtung der Eigenvektorachsen bestimmt ist. Diese sind die Hauptachsen von A.

9.4

Unit are Abbildungen und das Hauptachsentheorem fu r normale Endomorphismen


W heit unit ar , falls sie das Skalarprodukt

In diesem Abschnitt seien V und W unit are Vektorr aume. 9.4-1 Denition: Eine C-lineare Abbildung f : V respektiert, d. h. falls gilt: f x , f y x , y

x, y V.

Satz 9.2-2 kann nun w ortlich u ur die Implikation 3. 4. etwas muss man etwas bertragen werden. Nur f tiefer in die Trickkiste greifen. So braucht man zum Beispiel nur zu nachpr ufen, dass f Vektoren der L ange 1 in ebensolche abbildet, oder dass f eine ONB in eine ebensolche u uhrt, um zu sehen, dass f unit ar ist. berf Es gilt ebenfalls wieder, dass unit are Abbildungen injektiv sind, und dass jeder unit are Raum der Dimension n isometrisch zum Cn mit Standardskalarprodukt ist (durch Wahl einer ONB). Klar ist auch, dass die Menge der unit aren Abbildungen von V in sich eine Untergruppe von AutC V bildet. Sie heit unit are Gruppe und wird mit UC V bezeichnet. Ist A ij Mnn C, so wird die konjugiert komplexe Matrix ij mit A bezeichnet. Man pr uft nun leicht nach: 9.4-2 Beobachtung: Die Zeilen- (oder aquivalent die Spaltenvektoren) einer komplexen n n-Matrix bilden genau dann eine Orthonormalbasis von Cn , wenn AA d. h. wenn A ist. alt: Man nennt sie Die Matrix A ist so wichtig, dass sie einen eigenen Namen und ein eigenes Symbol erh die adjungierte Matrix von A und bezeichnet sie mit A . Die Abbildung : Mn C M n C : A A ist ein semilinearer C-Algebraantiautomorphismus von Mn C der Ordnung zwei, d. h. 123
t t

AA
t

A1

9.4-3 Lemma: Seien A, B 2. A B 1. A A, A B ,

Mn C und C. Dann gilt:

4. AB

3. A

A und B A

9.4-4 Denition: Sei A Mn C. 1. A ist unit ar , falls A1 A ist. (Entspricht den orthogonalen Matrizen im euklidischen Fall!) 2. A heit hermitisch oder selbstadjungiert , falls A A ist (entspricht symmetrischen Matrizen im Reellen). 3. A heit normal , falls AA A A ist. are und hermitische Matrizen sind normal. 9.4-5 Satz: Unit 9.4-6 Satz: Sei V endlichdimensional, und sei f ein Endomorphismus von V . Dann ist f unit ar genau dann, wenn f B , B f ur jede Orthonormalbasis B unit are Matrix ist. Wir haben adjungierte Matrizen deniert. Was ist die Entsprechung auf der Seite der Endomorphismen? 9.4-7 Denition/Satz: Sei dimV n, f EndC V , und sei B v1 , . . . , vn eine Orthonormalbasis von V . Sei A ij . Dann sei f : V V auf B wie folgt deniert: f B , B

f vj

n i 1

ji vi .

Der durch lineare Ausdehnung denierte Endomorphismus f heit der zu f adjungierte Endomorphismus. Es gilt: A f B , B . f B , B

9.4-8 Korollar: Sei f

EndC V und seien x, y V . Dann ist f x , y x , f y .

ur die f f Nun deniert man hermitische und normale Endomorphismen als solche f EndC V , f f f gilt. Das sind nat urlich genau solche Endomorphismen, deren Matrizen bez uglich einer bzw. f f Orthonormalbasis hermitisch bzw. normal sind. F ur einen hermitischen Endomorphismus f von V gilt daher f x , y x , f y x, y V. 9.4-9 Satz: Sei f ein Endomorphismus von V . Dann ist f normal genau dann, wenn f ur alle x, y gilt: f x , f y f x , f y . Ist f normal, dann gilt insbesondere f ur alle x V f x f x und auerdem kerf Ist x ker f , dann ist f x , f x f x , f x 0, und daher f x 0.

kerf :

124

9.4-10 Satz: Sei f ein normaler Endomorphismus von V und sei x ein Eigenvektor zum Eigenwert C von f . Dann ist f x x, d. h. x ist Eigenvektor von f zum Eigenwert . Insbesondere ist V f V f .

9.4-11 Satz Hauptachsentheorem f ur normale Abbildungen: Sei V ein endlichdimensionaler unit arer Raum, und sei f EndC V . Ist f normal, so besitzt V eine Orthonormalbasis aus Eigenvektoren ar- aquivalent zu von f . Ist B irgendeine Orthonormalbasis von V und ist A f B , B , so ist A unit einer Diagonalmatrix, d. h. es gibt eine unit are Matrix P , sodass P 1 AP Diagonalmatrix ist.

Im Spezialfall hermitischer Endomorphismen hat man: 9.4-12 Satz: Sei f EndC V hermitisch. Dann sind alle Eigenwerte von f reell und V hat eine Orthonormalbasis bestehend aus Eigenvektoren von f . Ist A die Matrix von f bez uglich einer Orthonormalbasis von V so ist A unit ar- aquivalent zu einer reellen Diagonalmatrix.

9.5

Hyper achen, Quadriken und quadratische Formen

Man kann Teilmengen des Rn , die durch dierenzierbare Funktionen deniert sind, eine Dimension zuordnen, indem man sich auf kleine Umgebungen von Punkten zur uckzieht, die man dann ann aherungsweise als lineare R aume (Tangentialr aume) betrachten kann. Die Dimension der Teilmenge des Rn in einem bestimmten Punkt ist dann deniert als Dimension des Tangentialraums an diesem Punkt. Ist die Dimension in allen Punkten der Teilmenge dieselbe, so spricht man von der Dimension der Teilmenge. ur den R2 sind das Kurven, f ur den R3 Hyper achen im Rn sind Teilmengen der Dimension n 1. F (gekr ummte) Fl achen im Raum etc. 9.5-1 Denition: Eine Hyper ache 2. Ordnung (auch Quadrik genannt) im euklidschen Raum Rn ist die Gesamtheit aller Punkte x1 x2 x . Rn , . . xn deren Koordinaten xi einer Gleichung G: mit ij , i ,

1 i j n

ij xi xj

n i 1

i xi

R gen ugen, wobei die Koezienten ij nicht alle 0 sind.

9.5-2 Bemerkung: Sind in einer solchen Gleichung alle Koezienten ij 0, dann ist die Gleichung ein lineares Gleichungssystem, dessen L osungen wir bereits kennen. Diese wollen wir nicht mehr untersuchen. Wir denieren nun die symmetrische n n-Matrix A
1 2 ij

ij durch
f ur i f ur i f ur i j j j,

ij

1 ji 2

ii

125

und den Zeilenvektor b 1 , . . . , n . Unsere Gleichung G l asst sich nun als Matrizengleichung G : xt Ax bx mit A

0 schreiben. Nach dem Hauptachsentheorem gibt es eine orthogonale Matrix P mit 1 0 . . .


0

0 2

... .. .

0 0 n1 0

P t AP

0 0 . . .

. 0

0 Wir interpretieren P als Basiswechselmatrix: P

...

id

E , B,

wobei E die nat urliche und B die Ortonormalbasis von Rn , die aus Eigenvektoren von A besteht, bezeichnet. P y . Dann ist xE P yE id E , ByE yB , d. h. x und y beschreiben Sei nun y Rn und x denselben Vektor, aber bez uglich verschiedener Basen. Sei d bP , dann gilt y t Dy y t P t AP y xt Ax und dy bP y bx.

So erf ullt x

P y die Gleichung G genau dann wenn y

P tx 0,

G : y t Dy dy

P 1 x die Gleichung

erf ullt, d. h. die Gleichung

mit d 1 , . . . , n . Die Koordinaten lassen sich nun so umordnen, dass 1 , . . . , r 0, und r1 r2 n 0 ist (Vertauschen zweier Koordinaten entspricht der Spiegelung an einer Winkelhalbierenden). Man beachte, dass man f ur 1 i r folgende Umformungen machen kann (quadratische Erg anzung):
2 i yi

2 2 n yn 1 y 1 n y n G : 1 y1

i y i

2 yi

So k onnen wir G durch Verschieben des Ursprungs um den Vektor


1 . . . r 1 r 2 0 . . .
1

i 2 yi i 2 i 4i

2 i 4i

i yi

i 2i

i 4

2 i

0 auf die Form


2 2 G : 1 z1 r zr r1 zr1 n zn

bringen, der konstante Term ist dabei

r 2 i i 1

4i

Dies nennt man die Normal- oderHauptachsenform von G und wir haben den folgenden Satz gezeigt: 126

9.5-3 Satz: Zu jeder Hyper ache zweiter Ordnung existiert die Normalform. An den Koezienten der Normalform kann man den Typ der Quadrik ablesen, etwa Parabel, Ellipse, Hyperbel im R2 oder parabolisches Hyperboloid, Ellipsoid, etc. im R3 . Dazu bringt man
2 2 r zr r1 zr1 n zn G : 1 z1

auf die folgende einheitliche Form: Durch Multiplikation der Gleichung mit einer Konstanten kann man annehmen, dass ist. Durch Vertauschen der Koordinaten kann man annehmen, dass i ist f ur s i r mit 1 s r. 0 ist f ur 1 i

0, 1, 1
0

s und i

Durch eventuelle Multiplikation der Gleichung mit 1 und Vertauschen der Koordinaten kann man erreichen, dass s r s ist, und f ur s r s 0 ist. n und i 0 f ur mindestens ein i

Ist r

r, dann sei T eine orthogonale Matrix der Form

1 0 T

0 0 0 0 . . .

0 1

0 .. .

0 0 . . . 0 1 0 . . . 0

0 0 . . . cr1 . . . cn 0 0

0 0
. . .

0 0 . . .

. . .

Ist r1

Diese Matrix bekommt man mit Hilfe des Schmidtschen Orthonormalisierungsverfahrens. Betrachtet man ahnlich wie vorher T t T 1 als Basiswechselmatrix, dann wird G zu einer Gleichung, in der r2 . . . n 0 gilt. Auerdem kann man annehmen, dass r1 0 ist (notfalls spiegelt man). 0, dann kann man durch eine Verschiebung erreichen, dass 0 ist.

Oft schreibt man nun die Gleichung G in der Form G : 1 z 2 s z 2 s1 z1 s2 r z 2 r1 zr1


1 s r

wobei i

Die Anzahl der positiven bzw. negativen Koezienten (bzw. die Anzahl der und ), und die Vorzeichen von r1 bzw. bestimmen nun den Typ der Quadrik. F ur den R3 ergeben sich folgende Typen, wobei wir zuerst entartete Quadriken betrachten, d. h. Quadriken, die im Reellen nicht zweidimensional sind (allerdings im Komplexen!):
2 2 Die Gleichungen 1 x2 1 2 x2 3 x3 1 Reellen!) keine L osungen. 2 0, 1 x2 1 2 x2 1

0 und r1

0 sind.

0 und 1 x2 1 1

0 besitzen (im

2 2 Die Gleichung 1 x2 1 2 x2 3 x3

Die Gleichung

1 x2 1

0 beschreibt einen einzigen Punkt (n amlich den Ursprung).

2 x2 2

0 beschreibt eine Gerade.

Die nichtentarteten Typen sind die folgenden:

127

Ellipsoid 2 2 1 x2 1 2 x2 3 x3 1

Einteiliger Kegel 2 2 1 x2 1 2 x2 3 x3

Zweischaliges Hyperboloid 2 2 1 x2 0 1 2 x2 3 x3 1

Einschaliges Hyperboloid 2 2 1 x2 0 1 2 x2 3 x3 1

Elliptischer Zylinder 2 1 x2 0 1 2 x2 1

Elliptisches Paraboloid 2 1 x2 0 1 2 x2 3 x3

128

Einteiliges Paar schneidender Ebenen 2 1 x2 0 1 2 x2

Hyperbolischer Zylinder 2 1 x2 0 1 2 x2 1

Hyperbolisches Paraboloid 2 1 x2 0 1 2 x2 3 x3

Doppelebene 1 x2 0 1

Einteiliges Paar paralleler Ebenen 1 x2 0 11

Parabolischer Zylinder 1 x2 0 1 2 x2

129

Kapitel 10

Mehr u aume und K orper ber Faktorr


10.1 Die Isomorphies atze

Die folgenden drei Isomorphies atze gelten mit kleinen Modikationen auch f ur Gruppen, Ringe, K Algebren, usw. Sie werden hier f ur Vektorr aume formuliert, aber im Sinne der ersten beiden mathematischen Tugenden sollten Sie nun die entsprechenden Formulierungen und Beweise f ur die anderen Strukturen nden (und beweisen) k onnen. Im diesem Abschnitt sind V, W, U Vektorr aume (nicht notwendig endlich dimensional) u orper ber dem K K. Wir sagen, ein Homomorphismus f : V W faktorisiert u U ber U , falls es Homomorphismen g : V und h : U W mit f h g gibt. Wir dr ucken dies auch aus, indem wir sagen, das folgende Diagramm sei kommutativ : f - W V @  g@ R h U W ein Homomorphismus und sei U ker f . Dann 10.1-1 Satz 1. Isomorphiesatz: Sei f : V faktorisiert f eindeutig u W , sodass das ber V U , d. h. es gibt genau einen Homomorphismus f : V U folgende Diagramm kommutiert: f - W V @  , @ R f V U wobei : V V U die nat urliche Projektion ist. Dar uberhinaus ist im f ker f w ahlt? . im f

Was ist, wenn man im obigen Satz U 10.1-2 Korollar: Sei f : V

W ein Homomorphismus. Dann induziert f einen Monomorphismus : V ker f f W.

: V ker f Insbesondere sind daher V ker f und im f isomorph, der Isomorphismus ist gegeben durch f im f (mit Einschr ankung des Bildbereichs). Die Dimensionsformel 4.7-7 impliziert daher: 130

10.1-3 Korollar: Sei f : V

W ein Homomorphismus. Dann ist dim V dim im f

dim ker f.

Ist insbesondere f ein Epimorphismus, so gilt dim V dim W

dim ker f.

Diese Aussage hatten wir schon in Korollar 5.7-10 gezeigt! 10.1-4 Problem: Sei f D die Dierenziation von Rn x nach Rn1 x. Bestimmen Sie eine nat urli uglich der nat urlichen Basis von Rn1 x und der che Basis von Rn x ker D und die Matrix von D bez von Rn x ker D. 10.1-5 Satz: Sei f : V W ein Homomorphismus, und sei X f 1 X W . Dann ist

v V

f v X im f , so ist

ein Unterraum von V , der ker f enth alt. Ist dar uberhinaus X f 1 X ker f X

f 1 X deniert eine inklusionserhaltende Bijektion zwischen der Menge der Unterr aume von und X im f und der Menge der Unterr aume von V , die ker f enthalten. Diese Inklusion respektiert Summe und Durchschnitt von Unterr aumen. Bekanntlich ist die Inklusion eine Ordnungsrelation auf der Menge V der Unterr aume von V . Damit wird V eine teilweise geordnete Menge, diese Menge wird auch Verband der Unterr aume von V genannt. Man kann sie als Graphen wie in Bemerkung 1.1-24 veranschaulichen. 10.1-6 Problem: 1. Was wird wohl ein Homomorphismus von geordneten Mengen sein? 2. Sei V die geordnete Menge der Unterr aume von V . Sei X, Y V . Gibt es eine kleinste obere und eine gr ote untere Schranke von X, Y ? Was ist, wenn wir X, Y durch eine (un-)endliche Kollektion von Unterr aumen ersetzen? 3. Sei X V . Was ist wohl mit dem Kegel gemeint, der X als untere (obere) Spitze hat? ( Kegel u ber bzw. unter X). 4. Was besagt obiger Satz u aume von im f ? ber den Kegel u ber ker f und dem Verband der Unterr Der zweite und der dritte Isomorphiesatz sind Anwendungen des ersten: 10.1-7 Satz 2. Isomorphiesatz: Seien U, W V , dann ist W U W .

U W U

131

10.1-8 Bemerkung: Wenn man sich den zweiten Isomorphiesatz nicht merken kann, dann hilft das folgende Diagram weiter, das einen Teil des Untermodulverbands von V darstellt: V

U U @ @ @ U

@ @ @ W

0
Man muss nun an parallelen Seiten der Raute die entsprechenden Faktorr aume bilden, diese sind dann isomorph, also U W U W U W und U W W U U W . 10.1-9 Problem: Sei f : V W ein Epimorphismus, und sei C ein Komplement von ker f in V . Zeigen Sie mit Hilfe des 2. Isomorphiesatzes, dass W C ist. Hier ist nun der 3. Isomorphiesatz: 10.1-10 Satz 3. Isomorphiesatz: Sei U W

V . Dann ist W U V W.

V U und es gilt:

V U W U

Hier ist eine Folgerung aus dem 1. Isomorphiesatz, die wir sp ater noch brauchen werden. W ein Homomorphismus, und sei U V der Kern von f . Sei U ein 10.1-11 Satz: Sei f : V U U . Dann ist die Einschr ankung von f auf U ein Isomorphismus Komplement von U in V . So ist V von U auf im f . Ist insbesondere

v1 , . . . , vk , vk1 , . . . , vn eine Basis von V , sodass v1 , . . . , vk eine Basis von U und vk1 , . . . , vn eine solche von U f v1 , . . . , f vk eine Basis des Bildes von f .
A

ist, so ist

10.2

Mehr u orper ber K

In den Ubungen haben wir bereits gesehen, dass der Ring Zn f ur n 2 und n 3 ein K orper ist, w ahrend er f ur n 6 keinen K orper bildet. Dies wollen wir nun genauer untersuchen.

132

10.2-1 Lemma: Seien p und q zwei positive ganze Zahlen und d N ihr gr oter gemeinsamer Teiler. Dann gibt es a, b Z, sodass ap bq d ist. orper genau dann, wenn n eine Primzahl ist. 10.2-2 Satz: Zn ist ein K 10.2-3 Problem: Berechnen Sie das Matrizenprodukt

1 0 2 wobei die Eintr age aus Z5 sind. 10.2-4 Problem: 1. Sei K Zp K orper und n N0 , x, y

4 2 1 4 3 1

2 3 0 2 3 0 4

1 2 4 4

K . Zeigen Sie, dass der binomische Lehrsatz gilt:


n n k 0

x y
wobei
n
k n! k! n k !

n nk k x y , k x x x

2. Sei p eine Primzahl und K Zp. Zeigen Sie, dass die Abbildung K ein Ringhomomorphismus ist. Gilt das auch f ur K Q? 10.2-5 Problem: Bestimmen Sie die M achtigkeit der GLn p Insgesamt erh alt man so, dass GLn p

ist.

K:x

xp

GLn Zp.

qn 1qn qqn q2 qn qn1 ist.

10.2-6 Denition: Sei K ein K orper. Eine Teilmenge F K heit Unterk orper von K , wenn F mit der Addition und Multiplikation von K (eingeschr ankt auf F ) wieder einen K orper bildet. 10.2-7 Bemerkung: Sei F K ein Unterk orper. Dann ist 1F 1K : Es gilt 1F 1F 1F 1F 1K . gilt 0K 0F . Multipliziert man diese Gleichung mit dem Inversen von 1F , so erh alt man 1F 1K . Ahnlich 10.2-8 Lemma: Sei K ein K orper. Dann besitzt K einen kleinsten Unterk orper, in dem Sinn, dass jeder Unterk orper diesen kleinsten Unterk orper enth alt. 10.2-9 Denition: Sei K ein K orper. Den kleinsten Unterk orper von K nennt man Primk orper von K . orper Q und Zp (mit p prim) besitzen keine echten Unterk orper und sind 10.2-10 Lemma: Die K daher ihre eigenen Primk orper. Wie wir sehen werden, sind dies auch die einzigen Primk orper, die vorkommen k onnen, nat urlich bis auf Isomorphie. 133

10.2-11 Denition: Sei K ein K orper. Die Charakteristik charK von K ist deniert als: charK charK p, falls p die kleinste nat urliche Zahl ist mit 1K 1K . . . 1K 0, falls es keine solche Zahl gibt, d. h. falls 1K 1 K . . . 1 K
n mal p mal

0K . 0K ist f ur alle n N.

10.2-12 Problem: Sei K ein K orper der Charakteristik p orper. 10.2-13 Satz: Sei K ein K 2. Ist charK 1. Ist charK

0. Zeigen Sie, dass p eine Primzahl ist.

0, dann ist der Primk orper von K isomorph zu P p

Q.

0, dann ist der Primk orper von K isomorph zu P

Zp.

orper. Zeigen Sie, dass es eine Primzahl p und ein n 10.2-14 Problem: Sei K ein endlicher K pn . mit K

N gibt

134

Kapitel 11

Anwendungen
11.1
11.1.1

Lineare Gleichungssysteme
Praktisches

Wir wollen nun kurz eine Klasse von Anwendungen diskutieren: Sogenannte Netzwerkprobleme . Man hat eine Netzwerk von Leitern gegeben, durch die etwas iet. Das kann z. B. ein System von Abwasserkan alen, von Straen oder ein Stromnetz sein. Im System hat man Verzweigungspunkte, in die das Medium entweder hinein- oder hinausiet. Die Idee ist nun, dass die Menge, die in das System pro Zeiteinheit insgesamt hineiniet (die Flussgeschwindigkeit des Mediums), gleich der Menge sein muss, die es pro Zeiteinheit verl asst, und dass derselbe Sachverhalt f ur jeden Verzweigungspunkt gilt. Dies ergibt ein lineares Gleichungssystem, das die Mengen des Mediums in den einzelnen Leitungen miteinander in Beziehung setzt. Am besten kann man das durch ein Beispiel veranschaulichen: 11.1-1 Beispiel: Das Diagramm unten soll ein System von Einbahnstraen schematisch darstellen. Wir nehmen an, dass 500 Fahrzeuge pro Stunde in die Kreuzung A hineinfahren und dass 400 bzw. 100 Fahrzeuge pro Stunde das System an Kreuzungen B und C wieder verlassen. Wir wollen die m ogliche Verkehrsdichte in den einzelnen Straen bestimmen. Der Verkehrsu in den Straen sei gegeben als f1 , f2 , . . . , f6 Fahrzeuge pro Stunde in die Richtungen, die durch die Pfeile gegeben sind. Wir erhalten Gleichungen, indem wir an jeder Kreuzung den zu- und abieenden Verkehr gleichsetzen: Kreuzung A: Kreuzung B: Kreuzung C: Kreuzung D: 500 f1 f4 f6 f3 f5 f2 f1 f2 f3 400 f6 100 f4 f5 .

Wir erhalten vier lineare Gleichungen f ur die Gr oen f1 , . . . , f6 mit folgender augmentierter Koezientenmatrix: 1 1 1 0 0 0 500 1 0 0 1 0 1 400 0 0 1 0 1 1 100 0 0 0 1 0 1 1

135

A 500 f2

f1

B 400 f4

D f3 f6 f5

C 100
und daraus durch Zeilenunformungen

1 0 0 0

0 1 0 0

0 0 1 0

1 1 0 0

0 1 1 0

1 0 1 0

400 0 . 100 0

Die L osungsmenge L ist also die Menge der Vektoren der Form 400 0 100 0 0 0

1
1 0 1 0 0

0 1 1 0 1 0

1
0 1 0 0 1

mit Skalaren , , R. Man kann L auch durch die Gleichungen f1 f2 f3 400 f4 f6 , f4 f5 , 100 f5 f6

ausdr ucken, wobei die Parameter f4 , f5 , f6 frei w ahlbar sind. Nat urlich kommen nicht alle L osungen wirklich vor: z. B. sollten die Zahlen f1 , . . . , f6 alle nichtnegativ sein (sollte ein Parameter negativ sein, wie k onnte man das interpretieren?), d. h. man hat Einschr ankungen f ur die Werte der Parameter, die weitere Einschr ankungen f ur die u onnen. So impliziert f1 , f3 0 sofort, brigen Parameter implizieren k dass f4 f6 400 und f5 f6 100 sein muss. 136

In ihrer allgemeinsten Form werden solche linearen Gleichungssysteme mit zus atzlichen Einschr ankungen sp ater (in der Numerik) in Form von Optimierungsproblemen mit dem sogenannten Simplex-Algorithmus behandelt. 11.1-2 Problem: 1. Die folgenden Netzwerke (Abusskan ale, Straen,...) seien gegeben. Berechnen Sie die m oglichen Flussgeschwindigkeiten.

50 f1 f3 40 f4 f5 50 50 f5 60 f1 75 f4 f6 40 f7 60 f2 f3 f2

25

B f1 A 55 f4 D f2

20 f3 15 C f5 20

2. Das untere Netzwerk ist ein Einbahnstraennetz. Die Strae BC wird wegen Bauarbeiten geschlossen. Wieviel Autos pro Stunde muss die Strae AD mindestens bew altigen um zu verhindern, dass irgendwo im Netz mehr als 30 Fahrzeuge pro Stunde passieren? Jetzt wollen wir elektrische Netzwerke untersuchen. Wir ben otigen zwei physikalische Gesetze: 11.1-3 Gesetz:

137

1. (Das Ohmsche Gesetz) Sei ein elektrische Widerstand der St arke R gegeben. Dann verhalten sich die Spannung V und die Stromst arke I am Widerstand wie folgt: V IR.

2. (Kirchhos Verzweigungsregel) Die Summen der Stromst arken der in einem Verzweigungspunkt des Stromkreises zu- und abieenden Str ome sind gleich. 3. (Kirchhos Stromkreisregel) In einem geschlossenen Stromkreis ist die Summe der angelegten Spannungen gleich der Summe der an den Widerst anden abfallenden Spannungen. 11.1-4 Beispiel: Wir wollen die Stromst arken im folgenden verzweigten Stromkreis ausrechnen:

10 V

I3

10

20 B I6 I1 5 C

5V 20 V I2 I4 5 D

I5 10 V
Wir wenden zun achst die Verzweigungsregel auf die Verzweigungspunkte A, B, C und D an: Verzweigung A: Verzweigung B: Verzweigung C: Verzweigung D: I1 I6 I2 I4 I3 I5 I2 I3 I1 I5 I6 I4

(Beachten Sie, dass die dritte Gleichung aus den anderen dreien folgt.) Nun wenden wir die Stromkreisregel und das Ohmsche Gesetz auf die drei geschlossenen Stromkreise des Netzes an: Oben links: 10 5 20I1 10I3 5I4 Oben rechts: 5 20 10 5I5 5I4 . Unten: Dies sind 7 Gleichungen f ur die 6 Unbestimmten I1 , . . . , I6 (aber eine davon ist ja u ussig, wie wir ber gesehen haben). Daraus errechnet man leicht I1 I4
15 20 , 28 20 ,

I2 I5

1 , I3 20
12 20 ,

16 20 , 27 20 .

I6

138

11.1.2

Okonomisches

Zu guter Letzt haben wir hier noch eine Anwendung f ur die Wirtschaftswissenschaftler. Der Wirtschaftswissenschaftler Wassily Leontief gewann im Jahr 1973 den Nobelpreis f ur seine grundlegenden Arbeiten, in denen er mathematische Modelle f ur verschiedene okonomische Ph anomene entwickelt hat. Hier sind zwei Spezialf alle seiner Arbeiten: Wir betrachten eine einfache Gesellschaft, die aus genau drei Individuen besteht: Einer B auerin (B), die alle Nahrungsmittel herstellt, einem Schneider (S), der f ur die Kleidung sorgt, und einer Bauingenieurin (I), die alle H auser baut. Alles, was produziert wird, wird auch konsumiert. Von auen kommt nichts in das System, wir haben es mit einem geschlossenen Modell zu tun. Hier ist eine Tabelle, welchen Anteil der produzierten G uter jede Person konsumiert: B S I Essen 0,4 0,1 0,5 Kleiden 0,2 0,7 0,1 Wohnen 0,2 0,2 0,6

Wir benden uns in einer primitiven Tauschgesellschaft (Geld ist ja nur ein Aquivalent f ur Warenwert und kein Wert an sich). Jede Person tauscht alles, was sie nicht konsumiert, ein. Seien p1 , p2 und p3 die Gesamtwaren die B bzw. S bzw. I herstellen, d. h. mit denen sie Handel treiben k onnen (gegeben jeweils als Anteil an der Gesamtproduktion). Dann bedeutet das etwa f ur die B auerin, dass sie 0, 40p1 selbst konsumiert, und f ur den Rest ihres Einkommens p1 die Waren 0, 20p2 von S und 0, 2p3 von I eintauscht, also: 0 , 4 p1 0 , 2 p2 0 , 2 p3 0 , 4 p1 0 , 2 p2 0 , 2 p3 0 , 1 p1 0 , 7 p2 0 , 2 p3 0 , 5 p1 0 , 1 p2 0 , 6 p3

p1 .

F ur die anderen gelten analoge Gleichungen, d.h. wir erhalten ein Gleichungssystem: p1 p2 p3

oder a quivalent dazu AP P mit P

p1 p2 und A p3

0, 4 0, 2 0, 2 0, 1 0, 7 0, 2 , 0, 5 0, 1 0, 6

wobei A die Koezientenmatrix des Systems ist. Sie heit Input-Output- oder auch Konsumptionsmatrix . Die Gleichung AP P wird Equilibrium Bedingung genannt. F ur Matrizen B ji und C ji gleicher Gr oe schreiben wir B C , falls ji ji ist f ur alle C analog. B heit nichtnegativ , falls B 0 ist, wobei 0 hier die Indizes i und j . Wir denieren B Nullmatrix derselben Gr oe wie B bedeutet. 11.1-5 Problem: Zeigen Sie, dass im geschlossenen Modell AP einzelnen kann seine Produktion nicht u bersteigen) automatisch AP tensummen von A sind 1. Man kann die Gleichung AP

P , (d.h. die Konsumption eines P zur Folge hat. Hint: Die SpalOu uhren und l osen: berf

P nun in das homogene System A E P P


0, 35.

0, 25

0, 40 Beachten Sie, dass wir nur an nichttrivialen nichtnegativen L osungen interessiert sind. Hier ist ein Satz, der ein n utzliches Kriterium f ur die Existenz solcher L osungen bereitstellt: 139

11.1-6 Satz: Sei A eine n n Input-Output Matrix der Form

B D

C , E

osungsgesamtheit wobei D eine positive 1 n 1 und C eine positive n 1 1-Matrix ist. Dann ist die L des homogenen Gleichungssystems E AX 0 eindimensional und wird von einem nichtnegativen Vektor erzeugt. Ein Beweis dieses Satzes kann in dem Artikel Applications of Matrices to Economic Models and Social Science Relationships von Ben Noble gefunden werden, der in Proceedings of the Summer Conference for College Teachers on Applied Mathematics, 1971, CUPM, Berkeley erschienen ist. Nat urlich erf ullt jede positive Input-Output Matrix die Bedingung des Satzes. Im oenen Modell nehmen wir nun an, dass auch eine Nachfrage nach G utern von auen besteht: So seien in unserem Modell nun x1 , x2 , x3 die Werte der produzierten Nahrungsmittel, Kleider und H auser und sei durch d1 , d2 , d3 die Nachfrage nach den jeweiligen G utern von auen gegeben. Wieder soll alles, was produziert wird, auch konsumiert bzw. exportiert werden, und daraus resultiert dann eine ahnliche Equilibrium Bedingung f ur das oene Modell: Der Uberschuss f ur jedes einzelne Gut muss der Nachfrage von auen gleich sein, d. h.: xi oder in Matrizenform
3 j 1

Aij xj

di

f ur

1, 2, 3

E AX

mit

d1 d2 . d3

Wir suchen eine nichtnegative L osung dieses inhomogenen Systems. Beachten Sie, dass A und D nichtnegative Eintr age haben, und dass die Spaltensummen von A den Wert 1 nicht u bersteigen. Es ist klar, dass eine L o sung des System existiert und nichtnegativ ist, falls E A invertierbar und die Inverse nichtnegativ ist. Die L osung ist dann durch E A1 D gegeben. Erinnern Sie sich? Ist a R, a 1, dann konvergiert ak f ur k gegen null und die Reihe 1aa2 1 gegen 1 a . Wie wir sp ater sehen werden, kann man ahnliches f ur Matrizen beweisen: Konvergieren k k k ji gegen 0 (d.h. limk ji 0 j, i), so konvergiert die Reihe E AA2 alle Eintr age von A 1 gegen E A . Da die Matrizen in der Reihe alle nichtnegativ sind, gilt dies auch f ur den Grenzwert E A1 . 11.1-7 Beispiel: Wir nehmen an, dass die B auerin 30 Ct Nahrungsmittel, 20 Ct Kleidung und 30 Ct Wohngeld braucht, um 1e Nahrung zu produzieren. Dies ergibt unsere erste Zeile der Matrix A. Die anderen ergeben sich analog: 0, 3 0, 2 0, 3 A 0, 1 0, 4 0, 1 0, 3 0, 2 0, 3 und daher haben wir:

E A

0, 7 0, 1 0, 3

0, 2 0, 3 0, 6 0, 1 0, 2 0, 7

140

und

E A1

2, 0 1, 0 1, 0 0, 5 2, 0 0, 5. 1, 0 1, 0 2, 0

Nun nehmen wir an, die Nachfrage sei f ur 30 TeNahrungsmittel, 20 Te Kleider und 10 Te H auser. So D 30 20 und X 10

E A1 D

90 60. 70

So m ussen f ur 90 Te Nahrung, f ur 60 Te Kleidung und f ur 70 Te H auser produziert werden, um die Nachfrage zu befriedigen.

11.2

Dierenzialgleichungen

Wir machen nun einen Einschub, um eine wichtige Anwendung dessen, was wir bisher gelernt haben, zu untersuchen. Wir beginnen mit dem folgenden physikalischen Problem: Ein (punktf ormiges) Gewicht der Masse m ist an einer Feder aufgeh angt. Diese wird durch das Gewicht gedehnt bis der Gleichgewichtszustand erreicht ist. F ur den Moment ist das System im Ruhezustand. Wir f uhren ein x-y -Koordinatensystem ein, wobei wir als Ursprung den Ruhepunkt des Gewichtes w ahlen, die y -Achse zeigt nach oben, die x-Achse nach rechts, und die Feder ist irgendwo oberhalb des Ursprungs auf der y -Achse aufgeh angt. Nun, zur Zeit t 0, ziehen wir das Gewicht um die Wegstrecke s nach unten und lassen los: Die Feder f angt an zu schwingen. Wir wollen nun den Weg, den das Gewicht zur ucklegt, als Funktion der Zeit darstellen. Das Gewicht bewegt sich lediglich auf der y -Achse auf und ab, daher wird dieser Weg vollst andig durch die y -Koordinate des Massenpunktes beschrieben, und diese a ndert sich in der Zeit t : y y t.

ausdr ucken. Diese Bedingung heit daher Anfangsbedingung . Wir wollen nun die Funktion y t bestimmen. Hier ist der L osungsweg f ur obiges Problem: Wir brauchen erst einige physikalischer Ingredienzien:

Unsere Bedingung, dass wir anfangs das Gewicht um die Wegstrecke s herunterziehen, kann man nun durch y 0 s

2. Newtons zweites Gesetz: Die Beschleunigung (= die 2. Ableitung y t des Weges nach der Zeit) atsfaktor reziprok zur Masse ist proportional zur ausge ubten Kraft F t, wobei der Proportionalit ist: F t my t. 3. Die Kraft, die auf das Gewicht ausge ubt wird, ist proportional zur Entfernung des Gewichtes vom Gleichgewichtszustand, d.h. hier vom Ursprung, (Hookes law): F t wobei k eine Ger atekonstante ist.

1. Die L osungsfunktion ist beliebig oft dierenzierbar. (Wie wir sehen werden, ist dies automatisch erf ullt).

kyt,

141

Jetzt kommt Mathematik ins Spiel: Aus den beiden obigen Gleichungen folgt my k ky bzw. y m y 0.

Diese Gleichungen bilden ein Beispiel f ur eine sogenannte Dierenzialgleichung , ( DGL). Darunter ver stehen wir eine Gleichung f ur eine Funktion y y t, die y , t und die Ableitungen von y involviert. Eine L osung der DGL ist eine Funktion y t, die diese Gleichung erf ullt. Wir sprechen von einer linearen Dierenzialgleichung (n-ter Ordnung), falls sie von folgender Form ist: an y n an1 y n1 a1 y 1 a0 y f,

wobei y i die i-te Ableitung (nach t) der Funktion y y t bezeichnet, und die Koezienten ai und f Funktionen (von t) sind (i 1, . . . , n). Dabei setzen wir immer voraus, dass an nicht die Nullfunktion ist. Ist f die Nullfunktion, so heit die DGL homogen . Wir wollen in diesem Abschnitt lineare homogene DGL mit konstanten Koezienten mit Hilfe der linearen Algebra untersuchen (d. h. ai ist konstant). Da nach Voraussetzung an nicht Null ist, kann man durch den Leitkoezienten dividieren, d. h. unsere Gleichung erh alt die Form: y n bn1 y n1 b1 y 1 b0 y 11.2-1 Beispiel: Die Funktion y t ist eine L osung von die Funktion y t sin

0.

k t m

y t ist es nicht.

k y m

0,

Aus Gr unden, die sp ater ersichtlich werden, betrachten wir komplexwertige Funktionen, d. h. Funktionen von R nach C. Solch eine Funktion C:t xt x:R l asst sich immer in Real- und Imagin arteil zerlegen: wobei x1 und x2 gew ohnliche reelle Funktionen sind. In der Tat ist x1 t der Realteil und x2 t der Imagin arteil von xt. 11.2-2 Lemma: Die Menge FR, C der komplexwertigen Funktionen auf R ist ein komplexer Vektorraum. 11.2-3 Denition: Sei x eine Funktion in FR, C mit Realteil x1 und Imagin arteil x2 . Wir sagen x ist dierenzierbar , wenn x1 und x2 dierenzierbar sind, und wir denieren die Ableitung x von x als x t 11.2-4 Problem: Sei xt xt x1 t ix2 t f ur t R,

x 1 t ix2 t

f ur alle t R.

2 sin 2t i2 cos 2t. Was sind Real- und Imagin arteil von x2 ?
142

11.2-5 Satz: Jede L osung einer linearen homogenen DGL mit konstanten Koezienten ist unendlich oft dierenzierbar. 11.2-6 Denition: Die Menge der unendlich oft dierenzierbaren komplexwertigen reellen Funktionen wird mit C bezeichnet. Nat urlich ist C ein Unterraum des komplexen Vektorraums FR, C und daher insbesondere selbst ein komplexer Vektorraum. Beachte auch, dass mit x auch die Ableitung x von x und damit alle h oheren Ableitungen von x in C liegen. Daher haben wir: 11.2-7 Satz: Die Ableitung D:C ist ein Endomorphismus von C . Allgemeiner schauen wir uns Polynome in D an: 11.2-8 Denition: Sei pt Dann setzen wir pD an tn an1 tn1 a1 t a0 C :x x

Ct.

an Dn an1 Dn1 a1 D a0 .

Beachten Sie, dass Di die i-te Ableitung nehmen bedeutet, und dies ist dasselbe wie die i-fache Kom position des Endomorphismus D mit sich selbst. 11.2-9 Denition/Satz: Sei pt Ct. Die Abbildung pD : C f ur pt Ct genannt. pD ist eine lineare Transformation. Die Dierenzialgleichung l asst sich nun umschreiben in wobei das Polynom pt durch pt y n bn1 y n1 b1 y 1 b0 y pDy 0, 0 C wird Dierenzialoperator

tn bn1 tn1 b1 t b0

gegeben ist. Dieses Polynom wird auch das zu obiger DGL assoziierte Polynom genannt. Die Aufgabe, eine homogene lineare DGL zu l osen, l asst sich jetzt so formulieren: osungsgesamtheit einer homogenen linearen Dierenzialgleichung mit konstanten 11.2-10 Satz: Die L Koezienten ist der Kern des Endomorphismus pD, wobei pt Ct das assoziierte Polynom ist. Insbesondere ist also diese L osungsgesamtheit ein Unterraum von C und wird daher L osungsraum zur gegebenen homogenen DGL genannt. Als n achstes dehnen wir die Exponentialfunktion ins Komplexe aus. F ur t a ib C, a, b R setzen wir et eaib ea cos b i sin b.

143

11.2-11 Problem: Zeigen Sie, dass f ur s, t C gilt: ets et es und et


1

et . ect . Dann ist f t cect .

11.2-12 Satz: Sei c C und sei f t die Exponentialfunktion f t

Gegeben sei eine homogene lineare DGL G mit konstanten Koezienten und assoziiertem Polynom pt. Die Ordnung der DGL ist nat urlich gerade der Grad von pt. Wir werden nun zeigen, dass der L osungsraum von G endlichdimensional ist. So gen ugt es, endlich viele spezielle L osungen von G zu nden, u osungen zu erhalten. Wir beginnen n amlich die einer Basis von ker pD, um einen Uberblick ber alle L mit dem Spezialfall, dass G von der Ordnung 1 ist, d. h.: G : y a0 y 0, p t t a0 .

11.2-13 Satz: Der L osungsraum der homogenen DGL G erster Ordnung mit konstanten Koezienten ist eindimensional mit Basisvektor y t ea0 t , wobei a0 der konstante Term des assoziierten Polynoms ist. 11.2-14 Korollar: Sei c C. Dann ist ect Basis des Kerns des Dierenzialoperators D c. Sei nun G : y n an1 y n1 a1 y 1 a0 y 0

eine homogene lineare DGL der Ordnung n mit konstanten Koezienten. Nach Korollar 8.2-19 zerf allt das assoziierte Polynom u ber C in Linearfaktoren p t pD Wir brauchen nun einen Hilfssatz: 11.2-15 Lemma: Seien T1 , T2 , . . . , Tn Endomorphismen eines Vektorraums V , die paarweise kommutieren, d. h. Ti Tj Tj Ti f ur alle 1 i, j n. Dann gilt f ur i 1, . . . , n ker Ti kerT1 T2 Tn .

t c1 t c2 t cn , D c1 D c2 D cn .

wobei c1 , c2 , . . . , cn (nicht notwendigerweise verschiedene) komplexe Zahlen sind. So ist

Die Operatoren D ci kommutieren paarweise, denn es ist D ci D cj D D ciD cj D ci cj D cj D ci . Daher haben wir: 11.2-16 Korollar: Der L osungsraum kerpD von G enth alt kerD ci f ur alle i 1, . . . , n. Nun ergibt sich sofort: 11.2-17 Korollar: Sei c Nullstelle des mit G assoziierten Polynoms p. Dann ist die Funktion ect eine L osung der DGL.

144

11.2-18 Beispiel: Sei Das assoziierte Polynom ist pt t


2

3t 2 und faktorisiert pt t 1t 2.

G : y 3y 2y

0.

Daher sind et und e2t L osungen und daher auch alle Funktionen in ihrem Aufspann c1 et c2 e2t c1 , c2 C.

Wir werden nun zeigen, dass der L osungsraum von G immer n-dimensional ist. Dazu brauchen wir einige Hilfss atze. 11.2-19 Lemma: Sei c C. Dann ist

D c : C
surjektiv.

11.2-20 Lemma: Seien f, g Endomorphismen eines Vektorraums V . Sei g surjektiv und seien die Kerne beider Endomorphismen endlichdimensional. Dann ist dimK kerf

dimK ker f dimK ker g .

11.2-21 Satz: Sei G eine lineare homogene DGL der Ordnung n mit konstanten Koezienten. Dann ist der L osungsraum von G von der Dimension n. 11.2-22 Lemma: Seien c1 , c2 , . . . , cn paarweise verschiedene komplexe Zahlen. Dann ist

ec t, ec t, . . . , ec t
1 2 n

eine linear unabh angige Teilmenge des C . 11.2-23 Satz: Sei G eine linear homogene DGL mit konstanten Koezienten der Ordnung n und assoziiertem Polynom pt t c1 t c2 t cn , und seien die Nullstellen c1 , c2 , . . . , cn paarweise verschieden. Dann ist B eine Basis des L osungsraumes von G. osungen der Dierenzialgleichungen y 11.2-24 Problem: Bestimmen Sie die L y 9y 0. 11.2-25 Satz: Sei c C. Dann ist

ec t, ec t , . . . , ec t
1 2 n

5y 4y

0 und

ect, tect, t2 ect, . . . , tn1 ect eine Basis des L osungsraumes des Dierenzialoperators D cn .
B 145

11.2-26 Beispiel: Bestimmen wir alle L osungen der DGL G : y 4 4y 3 6y 2 4y 1 y Das assoziierte Polynom ist p t t4 4 t3 6 t2 4 t 1 0.

t 14 , C.

also ist die L osungsgesamtheit von G gegeben als

b1 et b2 tet b3 t2 et b4t3 et

b1 , b2 , b3 , b4

11.2-27 Satz: Sei G eine lineare homogene DGL mit konstanten Koezienten und assoziiertem Polynom pt t c1 n1 t c2 n2 t ck nk f ur paarweise verschiedene komplexe Zahlen c1 , c2 , . . . , ck . Dann ist
k

B
i 1

Bi mit Bi

ec t , tec t, . . . , tn 1 ec t
i i i i

eine Basis des L osungraumes von G. 11.2-28 Beispiel: Gegeben sei die DGL G : y 3 4y 2 5y 1 2y pt und daher ist B t3 4 t2 5 t 2 0.

Wir wollen eine Basis B des L osungsraumes. Das assoziierte Polynom ist

t 12 t 2

et, tet, e2t und jede L osung von G l asst sich als y t b1 et b2 tet b3 e2t

mit Skalaren b1 , b2 , b3 darstellen.

11.3

Dierenzialgleichungssysteme

In diesem kurzen Abschnitt wollen wir das bisher Gelernte auf Systeme von Dierenzialgleichungen anwenden. Wir lernen das Verfahren, indem wir ein Beispiel durcharbeiten. Vorgelegt sei etwa das folgende lineare System:
x 1

D:

Hierbei sind die xi f ur i 1, 2, 3 reelle dierenzierbare Funktionen xi xi t einer Variablen t und x i t bezeichne die Ableitung. Eine triviale L osung ist nat urlich xi t 0 f ur alle i. Wir sind an nichttrivialen L osungen interessiert.

x 2 x 3

3x1 2x1 x1

x2 4x2 x2

x3 2x3 x3

146

Hier ist eine Umformulierung des Problems: Wir denieren die Funktion X als

X:R Die Ableitung von X ist die Funktion X mit

R3 : t

x1 t x2 t. x3 t

X t Wir setzen A

x 1 t x t. 2 x 3 t 1 4 1 1 2 . 1

3 2 1 X

Dann suchen wir nichttriviale (und m oglichst alle) L osungen der Gleichung AX.

Man rechnet nun leicht nach, dass A diagonalisierbar ist: Setzt man 1 0 1 Q 0 1 1 dann ist Q1 AQ und daher ist A Das setzen wir in die Gleichung X X Wir setzen Y :R R3 : t QDQ1 X D

1 2 , 1 diag 2, 2, 4 ,

2 0 0

0 0 2 0 0 4 QDQ1 .

AX ein und nden: bzw. Q1 X DQ1 X.

Q1 X t,

d. h. Y ist die Komposition von X mit der linearen Abbildung von R3 nach R3 , die durch Multiplikation mit der Matrix Q1 gegeben ist. 11.3-1 Problem: Zeigen Sie, dass Y eine dierenzierbare Funktion mit Ableitung Y t ist. Damit haben wir unser System D in die Gleichung Y u uhrt. berf 147 DY Q1 X t

Das ist gerade

t y1 t y 2 t y3

2 0 0

0 0 y 1 t 2 0y2 t y 3 t 0 4

Y t

y1 t y2 t, y3 t 2y1 t

2y1 t 2y2 t 4y3 t

mit

und wir haben die drei unabh angigen Dierenzialgleichungen erster Ordnung

t y2 y t
3

t y1

2y2 t 4y3 t,

die wir mit Hilfe der in 4.7 entwickelten Theorie simultan l osen k onnen. Nach Satz 11.2-13 erh alt man die allgemeine L osung als y1 t 1 e2t , y2 t 2 e2t und y3 t 3 e4t mit beliebigen Skalaren 1 , 2 , 3 . Nun erhalten wir die L osung des urspr unglichen Systems als:

x1 t x2 t x3 t das heit

X t

QY t

1 0 1

0 1 1

1 1 e2t 2 2 e2t 1 3 e4t

X t Damit ergibt sich: X t e2t

1 e2t 3 e4t . 2 e2t 23 e4t 2t 2t 4t 1 e 2 e 3 e


1 1 0 2 1

0 1 1

e4t

1 3 2 . 1

Die Ausdr ucke in den eckigen Klammern sind aber schlicht und einfach genau die Elemente zu den Eigenr aumen V2 zum Eigenwert 2 bzw. V4 zum Eigenwert 4, und man kann daher die L osungsgesamtheit von D beschreiben als: X t e2t z2 e4t z4 z2 Allgemein gilt: 11.3-2 Satz: Sei A eine reelle diagonalisierbare n n-Matrix und B v1 , v2 , . . . , vn eine Basis des Rn , bestehend aus Eigenvektoren von A zum jeweiligen Eigenwert i . Dann ist die L osungsgesamtheit des (reellen) Dierenzialgleichungssystems X AX gegeben durch
n i 1

V2 , z4 V4 .

i e

i t

vi i

148

Kapitel 12

Etwas Multilineare Algebra


Erinnern wir uns: In Denition 7.1-3 wurden Determinanten eingef uhrt. Dabei denierten wir die Determinante einer quadratischen Matrix A ij Mnn K u orper K als einen Rechen ber einem K ausdruck in ihren Eintr agen ij : detij 11 . . . n1 . . . 1n . .. . . . . . . nn

Sn

det A

sign 11 , . . . , nn .

Dann zeigten wir einige Eigenschaften der Determinante wie Satz 7.2-5 (det AB det A det B ), die Beweise waren allerdings sehr umst andlich und technisch. Ein wesentliches Ziel dieses Kapitels ist, eine nicht auf einer Formel beruhende Denition f ur Determinanten zu nden, die erkl art, was sie eigentlich sind, und aus der Satz 7.2-5 unmittelbar folgt. Dies ist ein Gesichtspunkt f ur dieses Kapitel unter anderen. Das hier entwickelte Material hat aber dar uber hinaus f ur viele Anwendungen Bedeutung.

12.1

Der Dualraum
HomK V, U . Was ist dimK W ? Wie konstruiert man eine Basis? HomK V, U wird zum K -Vektorraum durch

Im folgenden sei K ein K orper, V , U , usw. seien endliche K -Vektorr aume, wenn es nicht anders vorausgesetzt wird. 12.1-1 Problem: Sei W 12.1-2 Erinnerung: W

f gv
f ur K , f, g

f v g v und f v

f v

W und v V .

12.1-3 Denition: Der K -Vektorraum HomK V, K wird mit V bezeichnet. V wird der zu V duale Raum genannt. Die Elemente von V heien Linearformen .

149

12.1-4 Beispiel: 1. V

f : a, b

R f stetig

(mit a, b R) ist R-Vektorraum. Die Funktion


b Ia

:V

R:

b Ia

b
a

f x dx

ist eine Linearform. 2. V

f : 0, 2

C f stetig

ist C-Vektorraum. Sei n Z. Dann ist


hn f 1 2
2

f teint dt

eine Linearform auf V , der n-te Fourierkoezient von f . 3. Die Abbildung mit trij
n

tr : Mnn K ii ist eine Linearform.

K:A

trA

i 1

mit dieser Eigenschaft gibt. Man beachte, dass es nach Satz 5.1-11 genau eine Linearform vi x? 12.1-6 Problem: Sei x V . Was ist vi

12.1-5 Denition: Sei B vi i I eine (nicht notwendigerweise endliche) Basis von V . Sei vi die Linearform gegeben durch 1 K f ur i j vj ij vi 0 K sonst

12.1-7 Satz: Sei V endlich dimensional mit Basis B v1 , . . . , vn . Die Linearformen vi seien wie v1 , . . . , vn eine Basis von V , die zu B duale Basis. Insbesondere sind V oben deniert. Dann ist B (linear ausgedehnt). vi und V isomorph, ein Isomorphismus ist gegeben durch vi ur den Satz 12.1-7, 12.1-8 Beobachtung: Die Voraussetzung endlich dimensional ist wesentlich f nicht deniert. , so gilt immer dimK V dimK V . denn sonst ist die Summe f vi vi Ist dimK V 12.1-9 Problem: Sie V B v1 , v2 . 1. Sei f : V R2 , E

e1 , e2 die nat urliche Basis von V , v1 2, 1, v2 0, 1 und sei

2. Was ist e 2 2, 0 und v2 2, 0?


3. Nun ist aber e2

R : 1 , 2

21 2 . Was sind die Komponenten von f bez uglich E , B ?

v2 . Was schlieen Sie daraus?

150

12.1-10 Bemerkung: Der in Satz 12.1-7 denierte Isomorphismus von V nach V

:V

V :

n i 1

i vi

n i 1

i vi

v ab. Die Bezeichnung , d. h. v


n i 1

h angt ganz wesentlich von der gew ahlten Basis B


n i 1

ist daher irref i vi uhrend, wird aber doch beibehalten, wenn keine Missverst andnisse zu bef urchten i vi

v1 , . . . , vn von V

sind. Immer, wenn die Bezeichnung v f ur eine Linearform auf V benutzt wird, meinen wir bzgl. einer festgew ahlten Basis B v1 , . . . , vn von V .

12.1-11 Problem: Sei B vi i I eine Basis von V , wobei die (geordnete) Indexmenge I unendlich i I V sei wie in 12.1-5 deniert. ist. B vi 1. Bestimmen Sie eine Linearform von V , die nicht in B ist. 2. Was ist B ?

Von nun an sei, wenn nicht anders bemerkt, V ein endlich dimensionaler K -Vektorraum. 12.1-12 Denition/Lemma: Sei U U V , dann ist

f V f U 0 dimK U.
xv

ein Unterraum von V , das duale Komplement von U in V . Ist v1 , . . . , vn eine Basis von V , sodass , . . . , vn eine Basis von U . Insbesondere gilt v1 , . . . , vk eine Basis von U ist, dann ist vk 1 dimK U 12.1-13 Satz: Sei v dimK V

V . Deniere
K durch fv x

fv : V

f ur x V .

Dann ist fv K -lineare Abbildung, d. h. eine Linearform auf V und daher Element des Dualraums V V von V . Die Abbildung E :V V : v fv ist ein K -Isomorphismus. 12.1-14 Problem: 1. In 12.1-13 braucht man die Voraussetzung dimK V dimK V ist? 2. H angt E : V V von einer Basiswahl ab? . Warum? Was kann man sagen, wenn

151

12.1-15 Bemerkung: 1. Sei B

v1 , . . . , vn Basis von V

und B

, . . . , vn die duale Basis. Ist f V , dann ist v1


f
n i 1

, i vi

wobei die Koezienten i durch die Formel i gegeben sind. 2. Wie wir gesehen haben, h angt der Isomorphismus E : V einem kanonischen oder nat urlichen Isomorphismus. f vi V nicht von B ab. Man spricht von

12.1-16 Problem: Sei wieder ist V R2 , e 1 1, 0, e2 0, 1, v1 E e1 , e2 , B v1 , v2 . Zeigen Sie, dass v2 e ist auf zwei Weisen: 2 1. direkt durch Dualisierung der Basen E 2. indem Sie zeigen, dass e 2

2, 1,

v2

0, 1

und

fe2 und v2

v , v . e 1 , e2 und B 1 2
fv2 gilt.

Problem 12.1-16 legt den folgenden Satz nahe: 12.1-17 Satz: Sei V ein K -Vektorraum. Dann wird durch E :V V : v fv (siehe Satz 12.1-13)

ein injektiver Homomorphismus von K -Vektorr aumen deniert. Ist V endlich dimensional, B Basis von orige duale Basis von V , B die zugeh orige doppelduale Basis von V und ist b B , V , B die zugeh so ist b fb und wir bezeichnen E auch mit . :V V ist dann ein Isomorphismus. So ist die Bezeichnung f ur obigen Isomorphismus berechtigt, d. h. egal welche Basis man w ahlt, x fx ist immer dieselbe Abbildung, im Gegensatz zu der Situation, wenn man nur einmal dualisiert. Wir haben schon mehrfach gesehen, dass man Abbildungen wieder zu Mengen zusammenfassen kann. Hier ist ein weiteres Beispiel einer solchen Vorgehensweise: Seien U ,V K -Vektorr aume und f : V U eine K -lineare Transformation. K eine K -lineare Abbildung, so ist h f eine K -lineare Abbildung von V Ist h U , d. h. ist h : U nach K , d. h. ein Element des Dualraums V von V . V
f h f

- U

hU hf@R @ ?

K 12.1-18 Satz: Sei f : V U ein K -Vektorraumhomomorphismus. Dann wird durch f : U V :h f h hf

eine K -lineare Abbildung f deniert. F ur endlich dimensionale Vektorr aume V und U gilt: 152

1. ker f 2. 3. 4.

5. Identiziert man V mit V , so werden f und f ebenfalls identiziert, d. h. das Diagramm V


f

im f . dimK im f dimK im f . f ist surjektiv  f ist injektiv. f ist injektiv  f ist surjektiv.

- U

? V kommutiert. 6. Ist ferner g : U W K -linear, so gilt


f

? - U

g f f g . HomK U , V ist kontravariant (dreht Pfeile um): Man sagt, : HomK V, U


V
f

- U

- W W

f V 

g U 

12.1-19 Satz: Sei f : V U K -linear. Sei B v1 , . . . , vn Basis von V und C von U . Sei A C , B die Matrix von f bzgl. B und C . Dann ist f

u1 , . . . , um Basis

B, C
f

At .

12.2

Bilinearformen

Wir haben schon spezielle Bilinearformen kennengelernt, n amlich Skalarprodukte. Hier ist zun achst die Denition. aume. Eine Abbildung f : V 12.2-1 Denition: Seien V und U K -Vektorr einen K -Vektorraum W heit bilinear (genauer K -bilinear), falls gilt: 1. f v1 v2 , u 2. 3.

W von V

in

Oft betrachtet man Bilinearformen mit W K und entweder U V oder U V . F ur W K, U V sprechen wir dann von einer Bilinearform auf V . Manchmal (siehe etwa Kapitel 9, unit are R aume) ersetzt man 3. in Denition 12.2-1 durch die Bedingung 3 . f v, u f v, u f v, u f ur alle v

V, u U , f v, u1 u2 f v, u1 f v, u2 f ur alle v V, u1 , u2 U und ur alle v V, u U, K . f v, u f v, u f v, u f

f v1 , u f v2 , u f ur alle v1 , v2

V, u U, K ,
f ur alle K ist. Eine solche Abbildung heit

wobei : K K ein Automorphismus von K mit semilinear (oder im Spezialfall 9.1-7 hermitsch). 153

12.2-2 Beispiel: Durch , v deniert. 12.2-3 Problem: 1. Auf V 2.

v f ur

V , v V

wird eine Bilinearform ,

: V V

ersetzt?

: V V R : , 3 2 f ur , , , R. Ist , bilinear? Ist , bilinear, wenn man in 1. die Skalare 3,-2,1,-1 durch irgendwelche Skalare , , , R
2

R deniere ,

12.2-4 Denition/Lemma: Sei B vi i I Basis von V , und sei , : V V K eine vi , vj K vollst andig bestimmt. Gibt Bilinearform. Dann ist , durch die Angabe der Skalare ij man umgekehrt Skalare ij K vor, und deniert man

i I

i vi ,

j I

j vj

i,j

i ij j

f ur i , j K , wobei fast alle i und j gleich 0 sind, so ist , : V V K eine Bilinearform auf V . uglich der Basis B . Ist insbeDie Matrix ij i,j I heit Grammatrix G G B der Bilinearform , bez sondere V endlich dimensional, B v1 , . . . , vn , so ist G B eine n n-Matrix. 12.2-5 Bemerkung: Ist G ij die Grammatrix von , bez uglich B wie oben, und ist v i vi , w j vj i , j K fast alle 0), so kann man v , w als Produkt von Matrizen berechnen, n amlich v , w i ti ij ij j j wobei i und j Spaltenvektoren sind. 12.2-6 Problem: zu Problem 12.2-3: 1. Bestimmen Sie G E . 2. Beschreiben Sie

als Matrizenprodukt.

12.2-7 Problem: Sei V ein K -Vektorraum mit Basis B

1. Die Abbildung G B , die einer Bilinearform f : V V K die Grammatrix Gf ist eine Bijektion zwischen der Menge der Bilinearformen auf V und Mnn K .

v1 , . . . , vn . Zeigen Sie:

Gf B zuordnet,

K eine Bilinearform. Wie kann man Gf C aus Gf B und 3. Sind B , C Basen von V und f : V V den Basiswechselmatrizen id B , C bzw. id C , B ausrechnen?

2. Mnn K ist K -Vektorraum. Finden Sie auf der Menge der Bilinearformen auf V eine Vektorraumstruktur, sodass G B ein Isomorphismus wird.

4. Was gilt f ur unendlich dimensionale Vektorr aume V in 1., 2. und 3.?

154

Erinnern Sie sich? Im Kapitel 8 wurden Skalarprodukte eingef uhrt. Eine ganz wesentliche Bedingung war die, dass ein solches positiv denit sein soll. F ur den K orper K haben wir im Allgemeinen kein Konzept positiv, daher m ussen wir positiv denit durch eine geeignete Bedingung abschw achen. Dazu wollen wir insbesondere das geometrische Konzept der Orthogonalit at verallgemeinern: Im folgenden sei V ein K eine Bilinearform. Vektorraum u ber K und f , : V V 12.2-8 Denition: Seien x, y V . Ist x , y 0, so sagen wir x sei linksorthogonal zu y und y rechtsorthogonal zu x und schreiben x y . (Dies ist keine symmetrische Relation, wenn , nicht symmetrisch ist!) Im Allgemeinen kann so ziemlich jeder Bl odsinn passieren, den man sich denken kann, und der unserer Vorstellung zuwider l auft: Vektoren k onnen z. B. senkrecht zu sich selbst stehen oder gar orthogonal zu allen Vektoren sein. Man erh alt ungewohnte geometrische Konzepte. 12.2-9 Denition: Die Menge radl f heit Linksradikal , und die Menge radr f heit Rechtsradikal der Bilinearform f 12.2-10 Satz: Sei f : V V. 12.2-11 Problem: bez uglich B . Sei v
j 1

radl , radr ,

x V x V

xy

y V

x y V

, .

K bilinear. Dann sind Rechts- und Linksradikal von f Unterr aume von

Sei B
n

v1 , . . . , vn

xj vj

Basis von V und Gf B Grammatrix der Bilinearform f x1 . radr f . Was ist dann Gf B . . ? Wie kann man damit radr f xn

berechnen? Was gilt f ur radl f ? 12.2-12 Denition/Satz: Sei f El : V

, : V V
V :v

K bilinear. Dann wird durch K:x

v mit v : V

v , x

ein Homomorphismus El : V V deniert, der zu f assoziierte (kanonische) Linkshomomorphismus von V nach V . Um zu verdeutlichen, dass El bez uglich f gebildet wurde, schreiben wir auch Elf . Analog wird Er deniert: Er v v mit v w w , v . Es gilt: radl f ker El und radr f Gf B ker Er . Ist V endlich dimensional und B Basis von V , B die duale Basis, dann ist

Er

B, B

El

B , Bt .

155

12.2-13 Folgerungen: Sei dimK V 1. dimK radl f 2. radl f dimK radr f

. n rg Gf B .

ur 3. Ist f nicht ausgeartet, so denieren El und Er kanonische Isomorphismen von V auf V . (F unendlich dimensionales V sind El und Er injektiv.) V Homomorphismus. Gibt es Bilinearformen f1 , f2 : V

0  radr f 0. In diesem Fall heit f nicht ausgeartet, sonst ausgeartet. V

12.2-14 Problem: Sei h : V f2 Elf1 h bzw. Er h?

K mit

12.2-15 Satz: f Elf (und ebenso f arformen f auf V und HomK V, V .

f Er ) deniert eine Bijektion zwischen der Menge der Biline-

12.2-16 Problem: Sei dim V . In Problem 12.2-7 haben wir eine Vektorraumstruktur auf der Menge der Bilinearformen auf V deniert, sodass die Bijektion zwischen der Menge der Bilinearformen auf V und Mnn K ein Isomorphismus ist. Ist die Bijektion aus Satz 12.2-15 ebenfalls ein Isomorphismus? Hier sind noch einige spezielle Typen von Bilinearformen: 12.2-17 Denition: Sei , 1. 2.

: V V K bilinear. , heit symmetrisch , falls v1 , v2 v2 , v1 ist f ur alle v1 , v2 V . , heit alternierend , falls v1 , v2 v2 , v1 ist f ur alle v1 , v2 V . y  y x und daher ist die Relation sym-

12.2-18 Beobachtung: 1. Ist , alternierend oder symmetrisch, so ist x metrisch.

2. Ist , symmetrisch oder alternierend, so braucht man nicht zwischen Rechtsradikal und Linksradikal zu unterscheiden. Ist , symmetrisch, dann ist El Er , ist , alternierend, dann ist El Er . 3. Ist char K 4.

1 in K ), so sind alternierend und symmetrisch das gleiche. Sonst nicht! , ist symmetrisch  G , B bez uglich einer Basis B ist symmetrisch. A, P GLn K , dann ist P T AP symmetrisch, denn P t AP t P t AP t t Beachte: Ist At
2 (d. h. 1 P t AP .

5.

, ist alternierend  G , B bez uglich einer Basis B ist schiefsymmetrisch, d. h. At A


Das Tensorprodukt: A First Go

12.3

Wir haben schon eine bin are Operation auf der Klasse der K -Vektorr aume kennengelernt: Die direkte Summe . Dimensionsformel: dimK V W dimK V dimK W . denieren, sodass distributiv u Nun wollen wir ein Produkt ber ist und dass gilt: Dimensionsformel: dimK V W dimK V dimK W

156

12.3-1 Frage: 1. Wie sieht ein Element von V W aus? Wie die Addition von solchen?

2. Wie sieht dann wohl ein typisches Element ( Tensor ) des Tensorproduktes V W aus? 3. Wie addieren sich solche Tensoren? Was kann man aus der Eigenschaft distributiv u ber Addition , dann u (zun achst u ber ) schlieen? Was hat das mit bilinear zu tun? ber 4. Was bedeutet die Dimensionsformel f ur V K? Wie oft in der Mathematik haftet den Axiomen von Tensorprodukten etwas willk urliches an. Allerdings legen hier die Forderungen 1. Tensorprodukte von Vektoren sind distributiv u ber Addition und 2. die Dimensionsformel die Struktur von V
K

W weitgehend fest:

W schon und haben darin 12.3-2 Folgerungen: Angenommen, wir kennen das Tensorprodukt V Elemente v w v V, w W entdeckt, die den Folgerungen 1. und 2. oben gen ugen. Dann gilt: i. v ii. iii.

w1 w2
w v1

w1 v w v2 w v

w2 f ur alle v

V, w1 , w2 W V, w W
und

v1 v2
v w

w f ur alle v1 , v2 w f ur alle v

V, w W, K.

Ziel ist es nun, V W bestm oglich zu denieren, d. h. so, dass es i. ii. iii. (und alles was zwangsl aug daraus folgt) erf ullt, aber nicht mehr! 12.3-3 Problem: Angenommen, wir haben ein Tensorprodukt V die Abbildung V W : v, w v :V W bilinear ist. Zur uck zu unserem Ziel: Was heit hier bestm oglich? Wie kann man dies mathematisch exakt erfassen? Allgemein: 1. Wir wollen ein mathematisches Objekt durch Eigenschaften denieren. Beispiel: f sei ein reelles Polynom durch den Ursprung und den Punkt (1,1) und habe Steigung 2 im Punkt (1,1). 2. Dieses Objekt soll nicht noch zus atzliche, vermeidbare Eigenschaften aufweisen, sondern bestm oglich sein. In unserem Beispiel suchen wir ein Polynom kleinsten Grades, also eine Parabel, nicht ein Polynom vom Grad 3. Durch 1. und 2. ist dann das Objekt hoentlich eindeutig ( bis auf Isomorphie) festgelegt. Das Problem ist dann, ob so ein Objekt u berhaupt existiert, und wie man es dann konstruieren kann. F ur unser Tensorprodukt heit das: Die Tensoren v w (v V, w W ) m ussen das Tensorprodukt V W erzeugen und die Bedingungen i., ii. und iii. oben erf ullen. W schon deniert. Zeigen Sie, dass w

157

12.3-4 Denition: Sei K ein K orper, V und W Vektorr aume. 1. F V W ist der K -Vektorraum, bestehend aus Folgen von Elementen von K , die mit V indiziert sind: F V W kvw vV,wW fast alle kvw 0 Man beachte: V W l asst sich nach dem Wohlordnungssatz irgendwie linear ordnen! Anstatt kvw vV,wW schreiben wir die formale Summe

v,wV W
2. In F V F V W wird zum Vektorraum durch kvw v, w. kvw v, w kvw

kvw v, w . lvw v, w

v, w

kvw lvw v, w und

W sei S die Teilmenge


v1 v2 , w v1 , w v2 , w, v, w1 w2 v, w1 v, w2 , v, w v, w, v, w v, w mit v, v1 , v2 V, w, w1 , w2 W, K
V W F V

und R

F V

W . Dann denieren wir


1 v, w

und schreiben v F V

W R w f ur die Nebenklasse v, w R von v, w


W.

W in V

v ,w v,w

0 v , w

12.3-5 Bemerkung: Die Elemente von V W sind Linearkombinationen von einfachen Tensoren, d. h. Elemente der Form v w. Da ein skalares Vielfaches eines einfachen Tensors wieder ein einfacher Tensor ist (v w v w), kann jedes Element von V W sogar als Summe einfacher Tensoren k geschrieben werden, also in der Form i 1 vi wi . 12.3-6 Problem: 1. Was ist die exakte Denition der Folgen kvw ? Geben Sie damit eine neue, exaktere Denition von F V W . 2. Sei M eine Menge. Denieren Sie F M . F M heit der freie K -Vektorraum mit Basis M . Warum? 3. Beschreiben Sie die nat urliche Basis von F V W . Was ist die Dimension von F V W ? 4. Sei f : V W U bilinear, g : U X sei K -linear (f ur einen K -Vektorraum X ), dann ist gf :V bilinear.

158

12.3-7 Satz Universelle Eigenschaft von Tensorprodukten: Sei V W wie in Denition 12.3-4 erkl art. Dann gilt: 1. V W wird von im

U bilineare Abbildung, so gibt es genau eine lineare Abbildung 3. Ist U K -Vektorraum und f : V W : V W f , d. h. das folgende Diagramm kommutiert: f U mit f V

2. Die Abbildung : V

w v V

V, w W erzeugt. W : v, w v w ist bilinear. W


V Q Q fQ Q s Q
-

W pp pp pp !f pp ? U

Wir wollen zun achst die N utzlichkeit von 12.3-7 demonstrieren: Als erstes zeigen wir, dass der Vektorraum V die universelle Eigenschaft f ur V K besitzt: 12.3-8 Satz: Die Abbildung j:V

V : v,

ist bilinear. Der Vektorraum V zusammen mit der bilinearen Abbildung j besitzt die universelle EigenU in einen Vektorraum schaft 12.3-7 f ur Tensorprodukte, d. h. zu jeder bilinearen Abbildung f : V K : V U , die das folgende Diagramm kommutativ macht: U gibt es genau eine lineare Abbildung f V

- V pp pp @ pp @ pp !f f @ p R p? @ U
j

: V Dabei ist f

v U deniert durch f

f v, 1 f ur v

V.
K V ist.

Wir wollen diese Tatsache ausnutzen, um zu zeigen, dass V

12.3-9 Satz: Sei V ein K -Vektorraum. Dann ist die Abbildung V ein Isomorphismus. Insbesondere ist dimK V 12.3-10 Problem: n N und einen endlichen K orper K mit q Elementen die M achtig1. Vergleichen Sie f ur dimK V keiten von V K und V K . Was folgt daraus f ur : V K V K? V W . Finden Sie nichttriviale Elemente in 1 0V v, w in 1 v w.
W

V :

vi

vi i

dimK V.

2. Betrachten wir V W und : V W F ur v V, w W nden Sie Elemente

Im Beweis von Satz 12.3-9 haben wir lediglich mit den abstrakten Eigenschaften der Objekte , j, , , id hantiert und nicht wirklich Elemente abgebildet. Das geht viel allgemeiner! 159

12.3-11 Satz: Sei A ein K -Vektorraum, der folgende universelle Eigenschaft hat: i. Es gibt eine bilineare Abbildung j : V ii.

W Ist U ein K -Vektorraum und ist f : V W j f. : A U mit f f


V W.

A. U bilinear, so gibt es genau einen K-Homomorphismus

Dann ist A

Wir hatten (behelfsm aig) Tensorprodukte u ber unsere Wunschvorstellung 1. Distributivit at 2. Dimensionsformel konstruiert (oder vielmehr motiviert) und sind jetzt auf die universelle Eigenschaft 12.3-7 gestoen. Man kann aber auch Satz 12.3-7 benutzen, um Tensorprodukte zu denieren, d.h. ein Objekt A mit j :V W A, sodass i. und ii. von Satz 12.3-11 gilt, heit Tensorprodukt von V und W . So legt die universelle Eigenschaft 12.3-7 das Tensorprodukt V W bis auf (nat urliche) Isomorphie fest. 12.3-12 Prinzip Universelle Eigenschaften: Man deniert ein Objekt durch eine universelle Eigenschaft (etwa in Form von Diagrammen). Was gibt die universelle Eigenschaft? 1. Die Eindeutigkeit, aber nicht die Existenz! 2. Hat man ein Objekt A mit der universellen Eigenschaft deniert, und stolpert man zuf allig uber ein Objekt B , das diese ebenfalls erf ullt, so wei man automatisch A B ! In Satz 12.3-9 hatten wir dies benutzt, um V distributiv u ber ist: K V zu zeigen. Jetzt beweisen wir ahnlich, dass

12.3-13 Satz: Seien U, V, W K -Vektorr aume. Dann ist U und ahnlich U V W

V V

W .

W .

Ahnlich, aber komplizierter kann man das Verfahren auf mehr als zwei direkte Summanden, ja sogar auf unendlich viele ausdehnen, mehr dazu sp ater: 12.3-14 Satz: Seien I, J Indexmengen und Vi , i I, Wj , j

i I

J K -Vektorr aume. Dann gilt: Vi


Wj .

j J

Vi

Wj
i,j

Kurz: Tensorprodukte vertauschen mit direkten Summen. Eine wichtige Anwendung ist der folgende Satz: 12.3-15 Satz: Sei B

vi i I Basis von V , C wj j J Basis von W . Dann ist B C vi wj i I, j J

eine Basis von V

W.

160

12.3-16 Problem: Was sind die Fasern 1 v

w von : V

W?

Seien nun V und W endlich dimensionale Vektorr aume. Wir wollen in diesem Fall einen Vektorraum angeben, der die universelle Eigenschaft von V W besitzt. Dazu sei nun Y die Menge der bilinearen Abbildungen von V W nach K : Y

f : V W

K f bilinear

In Problem 12.2-7 haben wir gesehen, dass Y zum K -Vektorraum wird. 12.3-17 Lemma: Sei j : V g Y . Dann ist j bilinear. 12.3-18 Satz: Sei f : V das Diagramm

Y deniert durch j v, w

v,w

Y mit v,w g

g v, w f ur

: Y U bilinear. Dann gibt es genau eine Abbildung f V

U , sodass

- Y pp pp @ pp @ pp !f f @ pp @ R p? @ U
j

kommutiert. So erf ullt Y zusammen mit der Abbildung j die universelle Eigenschaft des Tensorprodukts V W , es gilt also V W Y . Wir benutzen die universelle Eigenschaft des Tensorprodukts, um Tensorprodukte von Abbildungen zu denieren: 12.3-19 Lemma: Seien V , W , X , Y K -Vektorr aume, und seien : V Abbildungen. Dann ist die Abbildung :V bilinear. 12.3-20 Satz: Seien : V X und : W W X Y wie in Lemma 12.3-19. Dann wird durch Y :

X und : W

Y K -lineare

Y : v, w

:V

vi

wi

vi

wi

eine K -lineare Abbildung deniert. 12.3-21 Problem: Warum deniert man Formel? Was geht dabei schief? nicht einfach durch die im Satz 12.3-20 angegebene

161

12.3-22 Problem: 1. Seien B


m

v1 , . . . , vn und C

w1 , . . . , wm Basen von V
C

und W . Sei x
i 1

i vi und y j m?

j wj . Was ist x
j 1

y ausgedr uckt in der Basis B W V

vi

wj 1

n, 1

2. Zeigen Sie:

HomK V, W .

Der Isomorphismus ist kanonisch. Wie sieht er aus? Problem 12.3-21 legt folgende Uberlegung nahe: Angenommen, ich will eine K -lineare Abbildung : W X denieren, indem wir vorschreiben, wohin die Erzeugenden v w abgebildet werden. Sei V etwa v w xvw X . Wann ist dann :V wohldeniert? 12.3-23 Antwort: ist genau dann wohldeniert, wenn :V bilinear ist. W X:

vi

wi

xvi wi

W : v, w

xv,w

12.4

Symmetrische Gruppen

Erinnern wir uns: Um die Determinante zu denieren, brauchten wir die symmetrische Gruppe Sn der Permutationen der Menge 1, . . . , n. Diese wollen wir nun etwas genauer untersuchen. 12.4-1 Denition/Satz: Sei G eine Gruppe, G und g G. Dann gibt es ein k N, sodass gk g g g 1 ist. Die kleinste nat u rliche Zahl k , f u r die g k 1G gilt, heit Ordnung von g G G
k mal

und wird mit g bezeichnet. 12.4-2 Denition: Sei Sn und 1 i n. Da a i idi i ist f ur a, gibt es eine kleinste nat urliche Zahl k N, sodass k i i ist. Dann sind i, i, 2 i, . . . , k1 i paarweise verschieden, denn aus s i t i mit s t folgt ts i i. Die Menge i, i, 2 i, . . . , k1 i heit Bahn von i unter oder auch Zykel und wird mit i bezeichnet. k ist die L ange der Bahn . 12.4-3 Lemma: Sei

Sn und 1, . . . , n. Sei
s

die Relation auf

deniert durch

. Dann ist f ur s, t Bahnen s unter .

k s

t f ur ein k

eine Aquivalenzrelation auf

, die Aquivalenzklassen s sind gerade die

N0

162

12.4-4 Korollar: Sei Sn . Dann ist disjunkt zerlegt in Bahnen bzgl. . So existieren Elemente xi (i 1, . . . , t) und k1 , . . . , kt N derart, dass disjunkte Vereinigung von xi , xi , . . . , ki 1 xi f ur i 1, . . . , t ist.

12.4-5 Notation: Sei

Sn . F ur schreiben wir
1 2 t

x1 , x1 , . . . , k 1 x1 x2 , x2 , . . . , k 1 x2 xt , xt , . . . , k 1 xt .
1 l asst man auch weg.

Diese Schreibweise nennt man Zykelschreibweise . Die Teile mit ki 12.4-6 Beispiel:

1 2

2 4

3 4 7 1

5 6 5 6

7 3

1243756 12437 Sn mit h ochstens einer Bahn der L ange 1, i k 1, ak a1 und b b f ur b 356124, aber es gilt

12.4-7 Denition: Ein Zykel ist eine Permutation a1 , a2 , . . . , ak . Es ist ai ai1 f d. h. ur 1 a1 , . . . , ak .

123245 12453 14523 245123.

12.4-8 Beobachtung: Disjunkte Zykeln kommutieren, z. B. ist 124356

12.4-9 Korollar: Jedes Element Sn kann bis auf die Reihenfolge der Faktoren eindeutig als Produkt von disjunkten Zykeln geschrieben werden. Die Zykeln entsprechen dabei den Bahnen der L ange 1. 12.4-10 Satz: Sei .

Sn . Dann ist

das kleinste gemeinsame Vielfache der L angen der Bahnen von

12.4-11 Denition: Ein Zykel der L ange 2 heit Transposition . Eine Transposition der Form i, i 1 heit Fundamentaltransposition . Transpositionen sind Involutionen, d. h. Elemente der Ordnung 2. 12.4-12 Satz: Jede Permutation Sn kann als Produkt von Transpositionen geschrieben werden. Jede Transposition kann als Produkt von Fundamentaltranspositionen geschrieben werden, und daher auch jede Permutation. Nat urlich gibt es viele M oglichkeiten, eine Permutation als Produkt von Fundamentaltranspositionen zu schreiben, so ist etwa id 1, 21, 2. Gesucht ist ein m oglichst kurzer Ausdruck, aber selbst dieser muss nicht eindeutig sein, z. B. sind 1, 3 1, 22, 31, 2 2, 31, 22, 3 beides Produkte von 3 Fundamentaltranspositionen, und 1, 3 kann nicht als Produkt von 0, 1 oder 2 Fundamentaltranspositionen geschrieben werden.

163

12.4-13 Denition: Sei Sn . Ein reduzierter Ausdruck von ist ein Produkt von Fundamentaltranspositionen i1 , i1 1i2 , i2 1 . . . il , il 1, sodass l minimal ist, d. h. l asst sich nicht als Produkt von weniger als l Fundamentaltranspositionen schreiben. Der reduzierte Ausdruck f ur id sei dabei ein leerer Ausdruck mit 0 Faktoren. l nennt man die L ange der Permutation und bezeichnet sie mit l . Nun stellt sich die Frage, wie man einen solchen reduzierten Ausdruck, bzw. die L ange einer Permutation bestimmen kann. 12.4-14 Denition: Sei

Sn eine Permutation. Die Menge der Fehlst ande von ist deniert als i, j 1 i j n und i j . 1352467 S8 .

12.4-15 Problem: Bestimmen Sie die Menge der Fehlst ande der Permutation ur eine Permutation 12.4-16 Lemma: F eine Fundamentaltransposition, dann gilt: n k, k 1 12.4-17 Satz: Sei

Sm sei n die Anzahl der Fehlst ande von . Ist k, k 1


n 1 n 1 falls k falls k k 1 k 1

Sn eine Permutation. Dann ist l gleich der Anzahl der Fehlst ande von .

12.4-18 Problem: Schreiben Sie die Permutation aus Problem 12.4-15 als reduzierten Ausdruck und bestimmen Sie die L ange von . 12.4-19 Korollar: Kein Produkt einer geraden Anzahl von (Fundamental-)transpositionen ist gleich einem Produkt einer ungeraden Anzahl von (Fundamental-)transpositionen. 12.4-20 Denition: Eine Permutation heit gerade bzw. ungerade , wenn l gerade (d. h. ist Produkt von einer geraden Anzahl von Transpositionen) bzw. l ungerade ist. 1l , d. h. sign 1, falls gerade Permutation ist, und sign 1, falls Sei sign ungerade Permutation ist. sign bezeichnet man als Signum von . 12.4-21 Lemma: Die Abbildung sign : Sn 1, 1 : sign ist ein Gruppenhomomorphismus in die multiplikative Gruppe 1, 1, d. h. es gilt sign sign sign . 12.4-22 Korollar: Ein Produkt einer geraden Anzahl von Transpositionen multipliziert mit einem ebensolchen ist wieder ein Produkt einer geraden Anzahl von Tranpositionen, usw. 12.4-23 Problem: Sei si 1. s2 i id, si1 si si1 . 2. si si1 si

i, i 1. Zeigen Sie, dass gilt:

164

12.4-24 Denition: 1. Zwei Elemente x, y einer Gruppe G heien konjugiert (in G), falls es ein g ist.

G gibt, sodass x

gyg 1

2. F ur x G heit die Menge gxg 1 g von x schreiben wir xG .

G Konjugationsklasse von x. F ur die Konjugationsklasse

12.4-25 Lemma: Die Relation auf G gegeben durch x y genau dann, wenn es ein g G gibt mit Die Aquivalenzklassen sind gerade die Konjugationsklassen, daher x gyg 1 , ist eine Aquivalenzrelation. ist G disjunkte Vereinigung seiner Konjugationsklassen. 12.4-26 Lemma: Sie ,

Sn und a1 , . . . , ak ein Zykel. Dann ist 1 a1 , . . . , ak . 1 , 2 , . . . , k von nichtnegativen ganzen Zahlen


n ist.

12.4-27 Denition: 1. Sei n N. Eine Partition von n ist eine Folge k i , sodass 1 2 3 . . . k und i 1 i

2. Sei Sn eine Permutation. Der Zykeltyp von ist die Partition von n, die entsteht, wenn man als Produkt von disjunkten Zykeln schreibt, und die L angen der Zykel (einschlielich der Zykel der L ange 1) absteigend ordnet.

12.4-28 Beispiel: Die Permutation 128534679 ist vom Zykeltyp 4, 3, 2. 12.4-29 Lemma: Zwei Elemente von Sn sind genau dann konjugiert, wenn sie vom selben Zykeltyp sind. 12.4-30 Satz: Es gibt eine Bijektion zwischen den Konjugationsklassen der Sn und den Partitionen von n. Die Bijektion bildet eine Konjugationsklasse Sn ab auf den Zykeltyp von .

12.5

Multilinearformen

Sei K ein K orper. Klar ist doch nun, wie wir trilineare und multilineare Abbildungen denieren: 12.5-1 Denition: Seien V1 , . . . , Vk und W K -Vektorr aume und sei f : V1 Vk W

eine Abbildung. Dann heit f multilinear (oder genauer k -fach linear ), falls gilt: 1. f ur v1 2. f ur v1 i , . . . , vk f v1 , . . . , vi v f v1 , . . . , vi , . . . , vk f v1 , . . . , v i , . . . , vk f v1 , . . . , vi , . . . , vk .

i Vi , vi1 Vi1 , . . . , vk Vk . V1 , . . . , vi1 Vi1 , vi , v

V1 , . . . , vk Vk .

f v1 , . . . , vi , . . . , vk

165

Ist W K und V1 V2 ... Vk , so spricht man von einer Multilinearform (oder genauer einer k -fachen Linearform ). Die folgenden Fakten sollten nun eigentlich leicht zu zeigen sein: Wir betrachten die Menge M der multilinearen Abbildungen W. f : V1 Vk Auf M denieren wir eine Addition f

g : V1 Vk

W : v1 , . . . , vk

f v1 , . . . , vk g v1 , . . . , vk

und eine skalare Multiplikation

f ur vi

Vi , i

f : V1 Vk W : v1 , . . . , vk f v1 , . . . , vk 1, . . . , k, K, f, g M . Der Beweis des folgenden Satzes ist nun einfach:

12.5-2 Satz: M wird mit obiger Addition und skalarer Multiplikation zum K -Vektorraum. 12.5-3 Denition: Seien I1 1, . . . , n1 , I2 1, . . . , n2 , . . ., Ik 1, . . . , nk endliche Indexmengen. Ein Element i I1 I2 . . . Ik wird Multiindex genannt. Sind V1 , . . . , Vk Vektorr aume und v1 , . . . , vn Elemente von V , dann sei vi V1 . . . Vk deniert durch 1 2 k vi vi1 , vi2 , . . . , vik . 12.5-4 Satz: Sind V1 , . . . , Vk und W endlichdimensionale Vektorr aume, dann ist M ebenfalls endlichdimensional der Dimension dimK M dimK V1 dimK V2 dimK Vk dimK W.

12.5-5 Beispiel: Seien V1 , V2 und V3 die folgenden Vektorr aume: V1 v 1 , v2


B1

1 1 , V 2

v 1 , v2 , v3
B2

2 2 2 , V 3

v 1 , v2
B3

3 3
I3

Die Basen der Vektorr aume sind dann indiziert durch folgende Mengen: I1 Setze I I1 I2 I3 , also I F ur i z. B.

1, 2, I2 1, 2, 3.

i1 , i2 , i3 ist vi

vi1 , vi2 , vi3

1 2 3 B
v1,1,1 v1,3,1 v2,3,1

1, 1, 11, 1, 2, 1, 2, 1, 1, 2, 2, 1, 3, 1, 1, 3, 2 2, 1, 12, 1, 2, 2, 2, 1, 2, 2, 2, 2, 3, 1, 2, 3, 2
1

B2 B3 vi i I

V1 V2 V3

v1 , v1 , v1 v1 , v3 , v1 v2 , v3 , v1

1 2 3 , 1 2 3 , 1 2 3 , usw.

Sei W nun K -Vektorraum, f : V1 B1 B2 B3 eindeutig bestimmt:

V2 V3

W multilinear. Dann ist f durch die Bilder von f auf

166

x1 x2 x3 Dann ist

V1 : V2 : V3 :

x1 x2 x3

11 v1 12 v2 2 2 2 21 v1 22 v2 23 v3 3 3 31 v1 32 v2

mit i

f x1 , x2 , x3


Also: f x1 , x2 , x3 Allgemein gilt: Ist I Bi vi

i I

1 2 3 f v1 v2 v3 11 21 32 1 1 2 1 2 3 1 2 3 11 22 32 f v1 v2 v2 11 22 31 f v1 v2 v1
11 21 31 f v1 v1 v1 . . .

12 23 32 f v2 v3 v2

1 2 3
ur i 1i1 2i2 3i3 f

i f vi , wenn wir i
I1 I2 . . . Ik , i

i , . . . , vi Basis von V , dann ist f x , x , . . . , x vi , v2 ni i 1 2 n iI i f vi mit: 1 1 2 k vi1 , vi2 , . . . , vik B1 B2 . . . Bk , i 1i1 2i2 kik .
wi f vi W

i1 , i2 , . . . , ik I , xi

i1 , i2, i3 I setzen. i n j 1 ij vj Vi mit dim Vi


i

ni ,

Umgekehrt: Man kann beliebige Werte

vorgeben, d. h. eine beliebige Mengenabbildung f : B1 B2 . . . Bk und man erh alt durch x1 , x2 , . . . , xn f

i I

W,

i I

i f vi

i wi
ni j 1

: V1 eine multilineare Abbildung f i i1 , i2 , . . . , ik I ).

V2 . . . Vk

W ( mit xi

ij vj , i

k j 1

jij ,

In unserem Beispiel: Man muss sich 12 Vektoren wi W , i I , beliebig vorgeben, und kann dann eine trilineare Abbildung f : V1 V2 V3 W nden, die auf den 12 Tripeln vi B1 B2 B3 genau die Werte wi W (i I ) annimmt. Die multilinearen Abbildungen fi,j : W w1 , w2 , w3 , V1 , V2 , V3 wie oben Basis von W i I , 1 j 3, dann ist fi,j deniert durch: fi,j : B1 B2 B3 W : vk wj 0 f ur i k sonst

167

z. B. i

1 , 3 , 2 I , j

2, dann ist f1,3,2,2 gegeben durch

f1,3,2,2 v1 , v3 , v2

1 2 3 1 2 3

w2 0 f ur i1 , i2 , i3

f1,3,2,2 vi1 , vi2 , vi3

f1,3,2,2 x1 , x2 , x3

1, 3, 2, also 1 1 2 2 2 3 3 f1,3,2,2 11 v1 12 v2 , 21 v1 22 v2 23 v3 , 31 v1 32 v2 1 2 3 f v1 , v2 , v3 . . . 11 21 31 f v1 , v1 , v1 11 21 32 1 1 2
11 23 32 w2

12.5-6 Problem: 1. Was ist das Nullelement von M ? 2. Wozu spezialisiert M f ur k 1, W K ? Was ist mit k 2, V1 V2 ? V V ist) heit
k Faktoren

12.5-7 Denition: Eine k -fache Linearform f : V k symmetrisch , falls f ur alle f v1 , . . . , vk

K (wobei V k

Sk ist.

f v1 , . . . , vk

12.5-8 Denition 1. Versuch: Eine Multilinearform f : V k f v1 , . . . , vk f ur alle

K heit alternierend , falls

sign f v1 , . . . , vk

Sk .

V K (f v, w f w, v). 12.5-9 Lemma: Sei char K 2 (d. h. es gilt 1 1 in K ), und sei f : V k K alternierende k -fache Linearform. Sind v1 , . . . , vk V , sodass vi vj ist f ur ein i j , dann ist f v1 , . . . , vk 0.
Beispiel: Alternierende Bilinearformen f : V K eine k -fache alternierende Multilinearform. Sind 12.5-10 Lemma: Sei charK 2 und f : V k v1 , . . . , vk V linear abh angige Vektoren, dann ist f v1 , . . . , vk 0. K multilinear. Ist f v1 , . . . , vk 12.5-11 Satz: Sei f : V k v1 , . . . , vk , dann ist f alternierend. 0 f ur jede linear abh angige Menge

Also: Ist charK 2, dann ist f : V k K alternierend genau dann, wenn f v1 , . . . , vk 0 ist f ur alle k -Tupel v1 , . . . , vk , die linear abh angig sind. Ist charK 2, dann gibt es alternierende Multilinearformen, ur die die Bedingung aus Satz 12.5-11 nicht gilt, etwa die Bilinearform mit der Grammatrix f 1 0 1 1 . F ur diese gilt f , 1 0. 0 1 0 0 Also ist Bedingung aus Satz 12.5-11 st arker als die Eigenschaft alternierend von Denition 12.5-8. Wir versch arfen diese Denition zu:

168

12.5-12 Denition Endg ultige Fassung: f : V k K sei k -fache Multilinearform. Dann heit f alternierend , falls f v1 , . . . , vk 0 ist f ur jedes linear abh angige k -Tupel v1 , . . . , vk von Vektoren vi V i 1, . . . , k . 12.5-13 Satz: Sei n dimK V und 0 f : V n K n-fach alternierende Multilinearform auf V . Seien v1 , . . . , vn V . Dann ist B v1 , . . . , vn Basis von V genau dann, wenn f v1 , . . . , vn 0 ist. 12.5-14 Satz: Die Menge Ak V der alternierenden k -fachen Multilinearformen auf V ist ein K Unterraum der Menge der k -fachen Multilinearformen auf V . 12.5-15 Satz: Sei B v1 , . . . , vn Basis von V , und sei 1 i1 . . . ik n, i i1 , . . . , ik Nk . F ur j j1 , . . . , jk 1, . . . , nk sei i,j i1 ,j1 i2 ,j2 ik ,jk . Wir denieren ej : V k K durch ej vl1 , . . . , vlk ej vl j,l , wobei l l1 , . . . , lk ist. i1 , . . . , ik und eine Permutation Sk i i1 , . . . , ik . Weiter sei f ur einen Multiindex i Dann gilt: 1. Sind u1 , . . . , uk 2. 3. Sei Ak V die Menge der alternierenden k -fachen Multilinearformen auf V .

V und Sk , dann ist ei u1, . . . , uk e i u1 , . . . , uk . ej j 1, . . . , nk ist Basis des Vektorraums aller k-fachen Multilinearformen auf V . Sei ai sign ei . Dann ist ai i i1 , . . . , ik Nk , 1 i1 i2 ik n Basis S von Ak V .
1 k

12.5-16 Problem: Sei dimK V 1. Was ist dimK Ak V ? 2. Was ist dimK Ak V f ur k

n und k

N.

ur k 3. Was ist dimK An V f

n? n?

12.5-17 Satz: Sei dimK V Ist B

n und sei f eine alternierende n-fache Multilinearform auf V . Dann gilt:


n

v1 , . . . , vn Basis von V
f u1 , . . . , un

Sn

und ist ui
j 1

ij vj f ur ij

K und 1

i, j

n, so ist:

sign 11 nn f v1 , . . . , vn

detij f v1 , . . . , vn .

Nun ist klar, dass Determinanten eng mit n-fachen alternierenden Multilinearformen zusammenh angen. Solche sind f ur Vektorr aume der Dimension n wegen Satz 12.5-15 bis auf skalare Vielfache eindeutig bestimmt und k onnen daher zur Denition von Determinanten benutzt werden.

12.6

Determinanten
V ein K -Homomorphismus.

Sei V ein Vektorraum u orper K der Dimension n, und sei : V ber einem K

169

12.6-1 Denition: Die Determinante D des Endomorphismus von V wird folgendermaen deniert: Man w ahle eine von der Nullform verschiedene n-fache alternierende Multilinearform f auf V . Eine solche existiert nach Problem 12.5-16. Dann setzt man D wobei B f v1 , . . . , vn , f v1 , . . . , vn ist.

v1 , . . . , vn irgendeine Basis von V

12.6-2 Satz: Sei EndK V . Dann ist D K unabh angig von der Wahl der Basis B von V in Denition 12.6-1, und unabh angig von der Wahl der Form f 0 in An V . 12.6-3 Satz: Sei EndK V , und sei B D

Sn

v1 , . . . , vn Basis von V . Sei vj sign 11 nn

ij vi . Dann ist
i 1

und damit stimmt die hier gegebene Denition mit Denition 7.1-3 uberein. Nun k onnen wir Satz 7.2-5 auf einfache Art und Weise beweisen: 12.6-4 Satz: Seien ,

EndK V . Dann gilt: 1. D 0  AutK V . 2. DidV 1. 3. D DD . ur AutK V . 4. D1 D1 f So ist D Gruppenhomomorphismus von AutK V in die multiplikativen Gruppe K

K 0.

12.6-5 Problem: Zeigen Sie nun die folgenden Rechengesetze f ur eine n n-Matrix A Hilfe der neuen Denition der Determinante. 1. Ist ein Spaltenvektor von A der Nullvektor, so ist det A 2. Hat A zwei identische Spaltenvektoren, so ist det A 0. 0.

ij mit

3. Addiert man zu einer Spalte von A das -fache einer anderen, so a ndert sich die Determinante nicht. 4. Vertauscht man zwei Spalten von A, so a ndert sich das Vorzeichen der Determinante. 5. Was passiert, wenn man eine Spalte von A mit 0 K multipliziert? 12.6-6 Bemerkung: Mit Hilfe der ersten Denition der Determinante ist es leicht zu zeigen, dass detA detAt ist. Daher gelten alle Behauptungen auch f ur Zeilen statt Spalten. Den Laplaceschen Entwicklungssatz kann man ebenfalls einfach beweisen: 12.6-7 Satz: Sei k

1, . . . , n und A ij . Dann gilt


n i 1

det A

1ik ik detAik

(Entwicklung nach der k -ten Spalte)

170

12.7

Mehr Tensorprodukte

Wir k onnen nun Tensorprodukte von 3 oder mehr Vektorr aumen bilden: aume. Ein K -Vektorraum W zusammen mit einer 12.7-1 Denition: Seien V1 , V2 , . . . , Vk K -Vektorr W heit Tensorprodukt der R aume V1 Vk k -fachen multilinearen Abbildung : V1 Vk falls folgende universelle Eigenschaft erf ullt ist: U multilineare Abbildung in einen K -Vektorraum U , so gibt es genau eine K -lineare Ist f : V1 Vk : W f , d. h. genau eine K -lineare Abbildung, die das folgende Diagramm Abbildung f U mit f kommutativ macht: V1 Vk W pp Q pp Q pp !f Q pp f Q s ? Q U F ur W schreiben wir W V1

Vk .

12.7-2 Bemerkung: Klar ist sofort: 1. Falls W (und ) existiert, so ist es eindeutig bis auf Isomorphie. 2. W wird dann von den Elementen der Form v1 Vektorraum erzeugt. 3. W

vk

v1 , . . . , vk vi

Vi 1

k als

F V1 Vk I , wobei I der von den multilinearen Relationen erzeugte Unterraum ist.

aume. Dann gilt: 12.7-3 Satz: Seien U, V, W K -Vektorr 1. V 2. U W V W W V und U

W.

12.7-4 Korollar: Das Tensorprodukt ist eine assoziative, kommutative Operation auf der Klasse der K -Vektorr aume. Vorsicht: Obwohl V1 f ur v1 , v2 V . 12.7-5 Folgerungen: 1. Tensorprodukte sind multilinear (distributiv), d. h. 2. Ist Bi V1 V2 V2 V1 heit das f ur V1 V2 noch lange nicht, dass v1 v2 v2 v1 ist

vi1 , . . . , vin Basis von Vi , so ist B B1 Bk v1i Basis von V1 Vk .


i

Vi

Vi

Vk

V1
1

Vi

Vk i

V1
n , 1

Vi k

Vk .

vkik 1

3. Sind : V durch

X K -lineare Abbildungen von K -Vektorr aumen V nach X (1

k ), so wird

k : V1

i1 ik vi1

vik

Vk

X1

i1 ik

Xk 1 vi
1

mit k vik

eine lineare Abbildung deniert.

171

Kapitel 13

Die Jordansche Normalform


In diesem Kapitel wollen wir unser grunds atzliches Problem, aus jeder Ahnlichkeitsklasse von n nMatrizen ein besonders sch ones Exemplar herauszuschen, wenigstens unter der Zusatzvoraussetzung l osen, dass das charakteristische Polynom dieser Klasse in Linearfaktoren zerf allt. Insbesondere, wenn der K orper K algebraisch abgeschlossen ist, gilt das immer, und dann haben wir in jeder solchen Klasse eine sch one Matrix. Wie u blich gibt es eine Endomorphismenversion: Wir suchen eine Basis des endlich dimensionalen Vektorraums V , sodass die Matrix des Endomorphismus f von V m oglichst einfach wird. Dazu werden wir versuchen, uns an dem diagonalisierbaren Fall zu orientieren, d.h. wir suchen eine Basis bestehend aus Eigenvektoren von f . Zun achst im 1. Abschnitt widmen wir uns einem Satz, der nicht nur f ur die Jordansche Normalform wichtig, sondern auch f ur sich selbst genommen interessant ist.

13.1

Der Satz von Cayley-Hamilton

Sir (seit 1835) William Rowan Hamilton (18051865) war ein irischer Mathematiker und Physiker. Er entwickelte die geometrische Optik, entdeckte in der Algebra die Quaternionen und stellte die ber uhmte Hamilton Funktion der theoretischen Mechanik auf, H H qk , pk ; t k 1, . . . , 3n,

die die Gesamtenergie von n Massepunkten der verallgemeinerten Koordinaten qk und Impulse pk beschreibt. In der Quantenphysik geht diese dann in den Hamiltonoperator u ber. Arthur Cayley (18211895) war ein britischer Mathematiker und wurde auch f ur die Cayleyschen Zahlen (Oktonionen) bekannt. Erinnern wir uns an Denition 8.1-4 eines f -invarianten Unterraums von V . Wie immer ist in diesem Abschnitt V ein K -Vektorraum endlicher Dimension und f ist ein Endomorphismus von V . Beispiele von f -invarianten Unterr aumen sind 0, V , im f , ker f sowie jeder Eigenraum von f . Dabei wurde in 8.2-22 der Eigenraum zum Eigenwert K als kerf deniert. Wir wollen diesen nun mit V bezeichnen. Klar ist, dass genau dann Eigenwert von f ist, wenn V 0 ist. Problem 8.3-9 zeigt den folgenden Satz: die Einschr 13.1-1 Satz: Sei U ein f -invarianter Unterraum von V , und sei f ankung von f auf U . Dann teilt das charakteristische Polynom der Einschr ankung das von f : f t f t.

172

13.1-2 Problem: Sei f : R4

R4 durch f

2 2

gegeben. Sei W f auf W .

e1 , e2. Dann ist W f -invariant. Berechnen Sie f t mit Hilfe der Einschr ankung von

Im Abschnitt 11.2 u ber lineare Dierenzialgleichungen hatten wir gesehen, dass man lineare Operatoren eines Vektorraums in sich potenzieren (d. h. mehrfach hintereinander ausf uhren) und dann Linearkombinationen von solchen Potenzen bilden kann, die resultierende Abbildung ist wieder K -linear. Mit anderen Worten, man kann Endomorphismen in Polynome u alt wieder Endomorphismen. ber K einsetzen und erh Ist also pt i ti K t ein Polynom und f EndK V , dann ist pf i f i ebenfalls ein Endomorphismus. Wie kann man nun f -invariante Unterr aume konstruieren? Hier ist eine M oglichkeit: 13.1-3 Denition: Sei x V und sei W der Aufspann der Vektoren der Form f i x f ur i W


0, 1, 2, . . .:

x, f x, f 2 x, . . . , f i x, . . . .

Der Unterraum W von V heit der von x erzeugte f -zyklische Unterraum von V . 13.1-4 Problem: 1. Beschreiben Sie den von x erzeugten f -zyklischen Unterraum W von V mit Hilfe von Polynomen. 3. Sei U ein f -invarianter Unterraum von V , x U und sei W der von x erzeugte f -zyklische Unterraum von V . Wie verh alt sich U zu W ? Welche alternative Denition von W l asst sich daraus gewinnen? 4. Sei f : R3 Was ist der von e1 R3 : , , 2. Zeigen Sie: Der von x erzeugte f -zyklische Unterraum ist f -invariant.

5. Was ist der vom reellen Polynom x2 erzeugte D-zyklische Unterraum von Rx, wenn D Dierenziation bedeutet? Die beiden vorigen S atze und obiges Problem zeigen, dass die f -zyklischen Unterr aume als minimale f -invariante Unterr aume eine besondere Rolle spielen, da man f auf einen solchen einschr anken kann und wei, dass das charakteristische Polynom der Einschr ankung das von f teilt. Das hilft bei der Berechnung von charakteristischen Polynomen! Der n achste Satz untermauert das: 13.1-5 Satz: Sei f ein Endomorphismus des endlich dimensionalen K -Vektorraums V . Sei W der von x V erzeugte f -zyklische Unterraum von V . Sei k 1 die Dimension von W (daher ist 0 x). Dann ist die Menge BW x, f x, f 2 x, . . . , f k1 x eine Basis von W .

1, 0, 0 erzeugte f -zyklische Unterraum?

, , 3 .

173

13.1-6 Problem: Bezeichnungen wie im vorigen Satz. 1. Warum gibt es 0 , 1 , . . . , k1

K , sodass f k x 0 x 1 f x k1 f k1 x
bezeichnet)? mit f

ist? 2. Was ist

B
f

(wenn man die Einschr ankung von f auf W


f k x f t

13.1-7 Satz: Seien die Bezeichnungen wie im vorigen Satz, und sei

0 x 1 f x k1 f k1 x.
tk k1 tk1 1 t 0 .

von f auf W gegeben als Dann ist das charakteristische Polynom der Einschr ankung f

13.1-8 Denition: Sei f pt, falls pf 0 ist.

EndK V und sei pt K t ein Polynom. Wir sagen f erf ullt das Polynom

13.1-9 Satz Cayley-Hamilton: Sei f ein Endomorphismus des endlich dimensionalen Vektorraums V . Dann erf ullt f sein charakteristisches Polynom f t. Nat urlich gilt auch die Matrizenversion dieses Satzes.

13.2

Verallgemeinerte Eigenr aume

Wie wir gesehen haben, ist ein Endomorphismus f des K -Vektorraums V (bzw. eine n n-Matrix A) genau dann diagonalisierbar, wenn V (bzw. K n ) eine Basis aus Eigenvektoren von f (bzw. A) besitzt. Dies muss nicht immer der Fall sein, wie das Beispiel der Matrix

1 0

1 1

zeigt. Hier sind einige leichte Fragen, um zu testen, ob Sie sich erinnern: 13.2-1 Problem: Sind die folgenden Matrizen diagonalisierbar oder nicht? 1. A 2. B 3. C

3 1 0 3 0 0

0 1. 3

3 0 0

1 0 2 1. 0 1 1 0 3 1. 0 3

1 0 0 174

4. D 5.

3 0 0 1 0 0

2 0 3 1 0 3 0 1 .. . ... ... ... 0 0 . . ..


0 . . .
0

Unter welchen Umst anden k onnen Sie sicher sein, dass eine gegebene Dreiecksmatrix diagonalisierbar ist? Eine k k -Matrix der Form E in obigem Problem heit Jordanblock zu der Gr oe k und wird mit J k bezeichnet. Ziel dieses Kapitels ist zu zeigen, dass jede n n-Matrix A, deren charakteristisches Polynom in Linearfaktoren zerf allt, zu einer Blockdiagonalmatrix ahnlich ist, deren Bl ocke auf der Diagonalen Jordanbl ocke sind: J1 0 . . . 0 0 0 J2 0 0 . . . . . A . . . , .
0

Jk1 ... 0

wobei Ji Ji ki ist. Hierbei sind die i die (nicht notwendigerweise verschiedenen) Eigenwerte von A und ki N. Der franz osische Mathematiker Camille Jordan (18381922) war in Paris Professor, zeitweise Pr asident der franz osischen Akademie der Wissenschaften (Acad emie des Sciences), wurde vor allem wegen seiner grundlegenden Arbeiten in der Gruppentheorie und Topologie bekannt. Die Reihenfolge der Jordanbl ocke ist nat urlich nicht von vornherein gegeben. Um Eindeutigkeit dieser Jordanform (oder Jordanschen Normalform ) der Matrix A zu erzielen, k onnen wir jedoch verabreden, dass die Elemente des K orpers irgendwie geordnet seien (Wohlordnungssatz!) und wir die Jordanbl ocke zu verschiedenen Eigenwerten gem a dieser Ordnung anordnen. F ur einen festen Eigenwert denken wir uns die Jordanbl ocke dann mit absteigender Gr oe angeordnet. Damit ist die Jordandarstellung einer Matrix dann eindeutig. Im realen Leben verzichtet man aber oft auf die Eindeutigkeit und l asst die K orperelemente (etwa von C) ungeordnet. Lediglich die Jordanbl ocke zum selben Eigenwert werden in der Regel zusammengruppiert. Man hat dann eben nur Eindeutigkeit bis auf die Reihenfolge der Jordanbl ocke. Nat urlich m ussen sich die Blockgr oen ki zum selben Eigenwert zur Vielfachheit von in A t und alle ki zusammen zu n aufsummieren. 13.2-2 Beispiel: Die 8 8-Matrix

0 Jk

2 0 0 0 0 0 0 0

1 2 0 0 0 0 0 0

0 1 2 0 0 0 0 0

0 0 0 2 0 0 0 0

0 0 0 0 0 0 0 0 3 1 0 3 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0

ist in Jordanform. 175

Das entsprechende Resultat f ur Endomorphismen lautet nat urlich, dass man zu jedem Endomorphismus f eines endlich dimensionalen Vektorraums V eine Basis B Bf von V so ndet, dass f Bf in Jordanform ist, sofern das charakteristische Polynom f t in Linearfaktoren zerf allt. 13.2-3 Denition: Sei V ein endlich dimensionaler Vektorraum und f ein Endomorphismus von V , sodass das charakteristische Polynom f t in Linearfaktoren zerf allt. Eine Jordanbasis von f ist eine Basis Bf von V , sodass f Bf in Jordanform ist.

Unsere Aufgabe lautet nun, f ur ein solches f eine Jordanbasis zu konstruieren. Um das durchzuf uhren, sammeln wir zun achst einige Eigenschaften von Jordanbasen. Dies wird uns dann auf ein Konstruktionsprinzip hinf uhren. 13.2-4 Problem: Erinnern Sie sich: idV .

1. Sei die Matrix von f bez uglich einer Basis B gegeben als

B
f

3 1 0 3 0 0

0 1. 3

So ist B Bf also eine Jordanbasis. Wie operiert der Endomorphismus f 3 auf Bf , wie f 3 2 und wie f 3 3 ? Was sind die jeweiligen Kerne dieser Potenzen von f 3 ? 2. Nun analog (und erweitert) f ur

B
f f

2 0 0 0
f

1 2 0 0

0 1 2 0

0 0 . 1 2

3. Und was ist mit

B
f

J n?

Das letzte Problem hat die Bedeutung der Kerne der Potenzen von f verdeutlicht. Man sieht unmittelbar:

f ur Eigenwerte von f

13.2-5 Denition/Satz: Sei f ein Endomorphismus eines endlich dimensionalen Vektorraums V , und sei K . Dann ist kerf kerf 2 kerf i eine aufsteigende Kette von Unterr aumen von V , die terminiert (d.h. es gibt eine nat urliche Zahl k so, ur alle i N). Daher ist dass kerf ni kerf n ist f V f
i 1

kerf

ein wohldenierter Unterraum von V . Wir nennen diesen verallgemeinerten Eigenraum zum Eigenwert von f und bezeichnen ihn (in diesem Skript) mit V f . Seine Elemente heien verallgemeinerte Eigenvektoren von f . Wir haben also Das alles hat wie u blich auch eine Matrizenversion. Notationen wie V A etc. sind damit gleich mitdeniert! Beachten Sie, dass der Eigenraum V f von f immer im verallgemeinerten Eigenraum V f enthalten ist. Obige Denition 13.2-5 macht auch Sinn, wenn kein Eigenwert von f ist, und man braucht auch nicht, dass f t in Linearfaktoren zerf allt. 176 V f

v V

p N : f

p v

0.

13.2-6 Beobachtung: Sei J n. Was ist die Dimension von V f und die von V f ? f Bf Oensichtlich ist V f ein- und V f ist n-dimensional, d.h. V f ist der ganze Raum V . Ist Bf v1 , . . . , vn , so ist v1 V f der bis auf skalare Vielfache eindeutig bestimmte Eigenvektor von f mit Eigenwert , und Bf ist die zyklische Basis (nach Satz 13.1-5) des von vn erzeugten f -zyklischen Unterraums von V , der hier mit V identisch ist. Was ist nun, wenn mehr als ein Jordanblock auftaucht? 13.2-7 Problem: diag J k1 , J k2 und B v1 , . . . , vk1 , vk11 , . . . , vk1 k2 (diag Jk1 , J k2 1. Sei f B bezeichnet die Blockdiagonalmatrix, wobei J k1 , J k2 die Bl ocke auf der Diagonalen sind). Was sind die Eigenr aume von f , und was ist V f ? Bestimmen Sie eine Zerlegung von V in f zyklische Unterr aume! 2. Nun das Ganze f ur mehrere Jordanbl ocke zu einem Eigenwert:

B
f

J1 0 . . .
0

0 J2

... .. .

0 0

0 mit Ji J ki f ur i 1, . . . , s.

Js1 ... 0

0 Js

0 0 . . .

3. Was ist mit einer Matrix

f ur zwei verschiedene Skalare , K ?

B
f

diag J k1 , J k2

13.2-8 Satz: Sei ein Eigenwert des Endomorphismus f von V . Dann ist V f ein f -invarianter Unterraum von V , der den Eigenraum V f enth alt. 13.2-9 Denition/Satz: Sei ein Eigenwert des Endomorphismus f von V und sei v ein verallgemeinerter Eigenvektor zu , d. h. v sei Element von V f . Sei p die kleinste nat urliche Zahl, sodass f p v 0 ist. Dann ist

f p1 v, f p2 v, . . . , f v, v eine Basis des von v erzeugten f -zyklischen Unterraums von V . Wir nennen B den von v erzeugten
B

Man beachte die Reihenfolge, in der die Vektoren in B angeordnet sind. Der Anfangsvektor ist der letzte Vektor! 13.2-10 Satz: Sei B ein Zykel verallgemeinerter Eigenvektoren zum Eigenwert von f . Dann ist B eine Basis des vom Anfangsvektor erzeugten f -zyklischen Unterraums W von V und dieser ist f invariant. Die Einschr ankung von f auf W besitzt genau einen eindimensionalen Eigenraum und dieser wird vom Endvektor des Zykels B erzeugt.

f p1 v der Endvektor des Zykels.

Zykel verallgemeinerter Eigenvektoren von f , oder kurz -Zykel von f , und v heit der Anfangs- und

177

13.2-11 Satz: Sei B eine geordnete Basis von V . Dann ist B genau dann eine Jordanbasis von f , wenn sie eine disjunkte Vereinigung von Zykeln verallgemeinerter Eigenvektoren von f ist. Wir haben nun den grundlegenden Satz: 13.2-12 Satz: Sei f EndK V , sodass f t in Linearfaktoren zerf allt. Dann ist V die direkte Summe seiner verallgemeinerten Eigenr aume: V f , V

wobei die Menge der Eigenwerte von f durchl auft. Da verallgemeinerte Eigenr aume alle f -invariant sind, k onnen wir mit Korollar 8.3-5 eine Basis B von V so nden, dass f B Blockdiagonalform hat, wobei jeder Block auf der Diagonalen genau einem Eigenwert von f entspricht und die Matrix von der Einschr ankung von f auf den verallgemeinerten Eigenraum V f ist: Wir brauchen nur Basen dieser Eigenr aume zu einer Basis B von V zusammenzusetzen. ur i j ). Sei 13.2-13 Korollar: Seien 1 , . . . , k die verschiedenen Eigenwerte von f (so ist i j f k Bi eine Basis des verallgemeinerten Eigenraums Vi f , B ankung von i 1 Bi und sei fi die Einschr f auf Vi . Dann ist A1 0 . . . 0 0 0 A2 0 0 . . .. . . f B . . . ,

0 wobei Ai ist.

...
fi

Ak1 0

0 Ak

B i

13.3

Die Jordansche Normalform: Algorithmus

Wir wollen nun zu einem Algorithmus zur Berechnung der Jordannormalform und der zugeh origen Jordanbasis eines Endomorphismus (einer Matrix) kommen, wobei wir immer voraussetzen wollen, dass das charakteristische Polynom des Endomorphismus bzw. der Matrix in Linearfaktoren zerf allt. Im Hinblick auf Korollar 13.2-13 k onnen wir sogar annehmen, dass f t

t n E i
i f ur i 1, . . . , k und

ist, d. h. f genau einen Eigenwert mit Vielfachheit n besitzt. J k ein Jordanblock. Dann ist dim kerJ 13.3-1 Lemma: Sei J dim kerJ E i k f ur i k .

Wir machen einige weitere Experimente mit Jordank astchen, um ein Konstruktionsprinzip f ur die Jordanform zu kommen:

178

13.3-2 Experiment: Betrachten wir die Matrix A wobei wir Ji

J i gesetzt haben. So ist 0 0 0 0 0 0 0 0 0

diag J2 , J2 , J2 , J1 , J1 , J1 , J1 ,

1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 . 0 0 0 0 0 0 0 0 0 0 0 0

Nun bestimmen wir: 1. Die Anzahl der Jordank astchen. 2. Die Dimension des -Eigenraums V A. ur i 1, 2, 3, . . .. Wir schreiben diese als aufsteigende Folge von 3. Die Dimension von kerA E i f nat urlichen Zahlen: 7, 10, 10, . . . ar wird, f ur Wir stellen fest, dass die aufsteigende Folge der Unterr aume kerA E i mit i 2 station i 2 aber 10- und f ur i 1 (Eigenraum) nur 7-dimensional ist. Die Dierenz von 10 und 7 ist 3, und das ist die Anzahl der 2 2-K astchen J2 . Jedes dieser K astchen nimmt 2 Dimensionen weg, und f ur die astchen bleiben 4 10 3 2 u 1 1-K brig. Nun wiederholen wir das Experiment, indem wir in A die drei K astchen J2 durch J3 ersetzen (was eine 13 13-Matrix ergibt). Wir erhalten als aufsteigende Folge der Dimensionen: 7, 10, 13, 13, . . . , die mit i 3 station ar wird. Wir argumentieren: Da die Folge erst mit i 3 station ar wird, muss es J3 s geben, und zwar 3 St uck, die Dierenz 13 10. Da 10 7 ebenfalls 3 ist, k onnen keine J2 s vorhanden sein. Nun ist 13 3 3 4, also muss es 4 K astchen J1 geben. 13.3-3 Problem: Nun wiederholen wir das Ganze mit B diag J7 , J3 , J3 , J3 , J3 , J1 , J1 , J1 , J1 .

ocke Jordank astchen Ji 13.3-4 Lemma: Sei A eine Matrix in Blockdiagonalform, deren s Diagonalbl J i sind ( K fest). Sei ni dimK kerA E i , und ki sei die Anzahl der vorkommenden K astchen Ji . Sei nr1 nr nr1 . Dann gilt: 1. n1 n2 n3 . . . nr k1 n1 n2 . . .

nr1

k2 k2 k3 . . . kr 179

... ... ...

kr1 kr1 kr

kr kr

2. F ur i

2, . . . , r ist

ni ni1

ki ki1 kr .

3. Daraus l asst sich ki rekursiv aus den nj ausrechnen! Daraus k onnen wir nun folgenden Algorithmus zur Berechnung der Jordanform einer Matrix extrahieren, zumindest wenn sie existiert: 13.3-5 Prozedur 1: Sei A eine n n-Matrix uber K , deren charakteristisches Polynom in Linearfaktoren zerf allt. Zur Ermittlung der Jordanschen Normalform von A f uhren wir nun folgende Schritte aus: ur i 1, 2, . . .. Beim ersten r mit 2. Zum Eigenwert K berechnen wir ni dim kerA E i f nr nr1 brechen wir ab, denn nach Lemma 13.3-4 bleiben die Dimensionen dann konstant. 3. Wir bilden das r-Tupel li 4. Wir bilden das r-Tupel ki ur i ni ni1 f ur i li li1 f 1, 2, . . . , r (mit n0 0). 0 setzten. 1, 2, . . . , r, wobei wir lr1 1. Wir ermitteln die Eigenwerte von A.

Dann ist die Jordanform von A die Blockdiagonalmatrix, bei der J i genau ki mal als Diagonalblock auftritt. Wir wenden dieses Verfahren auf unser Beispiel im obigen Problem an: 13.3-6 Beispiel: Sei A diag J7 , J3 , J3 , J3 , J3 , J1 , J1 , J1 , J1 .

Wie wir gesehen haben, erhalten wir f ur die ni das 7-Tupel 9, 14, 19, 20, 21, 22, 23 und damit f ur die Dierenzen li : 9, 5, 5, 1, 1, 1, 1 . Daraus berechnen sich die Dierenzen ki als 4, 0, 4, 0, 0, 0, 1 d. h. k1 4 k3 und k7 1, k2 k4 k5 k6 0.

Es ist nat urlich nicht sonderlich u berraschend hier, dass wir am Schluss in diesem Beispiel genau das wieder herausholen, was wir vorne hineingesteckt haben. Unsere Matrix A hier ist eben schon in Jordanform gegeben! Aber wir wollten auch nur durch diese Untersuchung den allgemeinen Algorithmus herausnden. Der Clou ist eben, dass das Verfahren allgemein funktioniert. Die Zahlen ni als Dimensionen der Kerne kerA E i onnen immer als L osungsgesamtheiten linearer homogener Gleichungssysteme bestimmt bzw. kerf i k werden (durch eine einfache Rangbestimmung der zugeh origen Matrix), und daraus erh alt man dann die ki auf v ollig mechanischem Wege. Hier ist ein alternatives Verfahren:

180

13.3-7 Prozedur 2: Wir malen uns zur Folge der ni ein Diagramm aus Kreuzen in der Ebene in einer Art Gitter, und zwar in die erste Zeile n1 Kreuze, in die zweite l2 n2 n1 Kreuze und in die i-te Zeile li ni ni1 Kreuze. Wegen li ki ki1 kr erh alt man eine abfallende Folge nat urlicher Zahlen, die sich wegen gerade zu nr dim V A aufsummieren. Die Spalten des entstehenden Diagramms geben dann gerade die -Zykeln wieder: Eine Spalte mit k Kreuzen entspricht dann gerade einem Jordanblock J k der Gr oe k von A. Dieses Diagramm heit Youngdiagramm zur Partition l1 l2 . . . lr von nr . Dabei ist eine Partition einer nat urlichen Zahl n eine nirgends aufsteigende (endliche) Folge nichtnegativer ganzer Zahlen. Wir sprechen dann einfach auch vom -Diagramm von A und bezeichnen es mit D . Am besten sieht man dies alles wieder an Hand eines Beispiels ein: 13.3-8 Beispiel: Wir arbeiten wieder mit A diag J7 , J3 , J3 , J3 , J3 , J1 , J1 , J1 , J1 . l1 l2 ls

n1 0 n2 n1 nr nr1

nr

Dann ist D das folgende Diagramm:


und wir erhalten genau eine Spalte mit 7, vier Spalten mit 3 Kreuzen und vier Spalten mit einem Eintrag, wie gew unscht. Die unteren Spitzen der Spalten entsprechen dabei den Anfangs- und die Eintr age der ersten Zeile den Endvektoren der -Zykeln. Es erhebt sich nun nat urlich die Frage, ob der Aufwand, den wir betrieben haben, berechtigt ist. Der Algorithmus funktioniert nat urlich f ur beliebige quadratische Matrizen bzw. Endomorphismen, deren charakteristische Polynome in Linearfaktoren zerfallen. Wir k onnen immer aus den Dimensionen ni der h oheren Kerne obige Konstruktionen ableiten. Aber sind wir berechtigt, daraus den Schluss zu ziehen, dass die Jordanform existiert? Warum u berhaupt ist die Folge der li schwach fallend (d.h. steigt an keiner Stelle an)? Warum sollte der verallgemeinerte Eigenraum V A immer eine Basis aus verschiedenen Zykeln haben? Der n achste Satz ist wesentlich, um zu zeigen, dass es eine solche Basis tats achlich gibt. 13.3-9 Satz: Sei f ein Endomorphismus von V und sei ein Eigenwert von f . Es seien -Zykeln Zi von f alle mit derselben L ange t gegeben (1 i s), und es sei yi der Anfangsvektor von Zi . Ist die Menge y1 , . . . , ys linear unabh angig modulo kerf t1 (d.h. die Restklassen sind im Faktorraum linear unabh angig), so ist
s

Z
i 1

Zi

linear unabh angig. Insbesondere ist die Summe der von den Zi aufgespannten Unterr aume direkt.

181

13.3-10 Korollar: Seien wie im vorigen Satz y1 , . . . , ys Vektoren von kerf im Faktorraum kerf t kerf t1

t , deren Restklassen
Zj

linear unabh angig sind. Dann sind die von den yi erzeugten -Zykel paarweise disjunkt (d.h. Zi f ur i j ).

Um nun eine Jordanbasis zu bestimmen, betrachten wir also h ohere Kerne Ni kerf i (in der Literatur ndet man auch den Begri Hauptraum ) und setzen wieder ni dim Ni . Wir holen zuerst noch ein Resultat nach, das wir schon bei unseren Prozeduren zur Berechnung der Jordanschen Normalform benutzt haben: 13.3-11 Lemma: Sei Nr Nr1 . Dann ist Nr Nri f ur alle nat urlichen Zahlen i.

Daher d urfen wir bei der Aufstellung der endlichen Folge der ni schon beim ersten Mal, wenn zwei aufeinanderfolgende Terme gleich werden, abbrechen. Man beachte, dass r im -Diagramm die Anzahl der Zeilen bezeichnet (siehe 13.3-5). urliche Zahl r sei wie im vorigen Lemma deniert. Wir 13.3-12 Prozedur Jordanbasis: Die nat f uhren nun die folgenden Schritte aus: 1. Wir besorgen uns eine Basis eines Komplements von Nr1 in Nr . Bestehe diese etwa aus den Vekonnen wir etwa dadurch erreichen, dass wir eine Basis des Unterraums toren y1 , y2 , . . ., ykr . (Dies k Nr1 von Nr zu einer solchen von Nr erg anzen.) 2. F ur 1 i kr ordnen wir im -Diagramm der i-ten Spalte von unten nach oben den Kreuzen die Elemente yi , f yi , . . . , f r1 yi zu. Die Vektoren einer Spalte bilden dann einen -Zykel von f . Sei U1 die Summe der von diesen -Zykeln aufgespannten Unterr aume der Dimension r. Wegen Satz 13.3-9 ist diese direkt und wir haben genau kr direkte Summanden. Die f k yi mit i 1, . . . , kr , k 1, . . . , r bilden nun eine Basis von U1 . 3. Die kr 1-te Spalte ist k urzer als alle vorherigen, etwa von der L ange t. Sei kt die Anzahl der Spalten der L ange t. Wir nden kt Basiselemente in einem Komplement von U1 Nt Nt1 in Nt und nehmen die davon erzeugten -Zykeln von f . Diese erzeugen U2 und bilden eine Basis von U2 . urzer als die vorhergehende. Sei ihre L ange etwa w und 4. Wieder ist die kr kt 1-te Spalte k gebe es kw viele Spalten dieser L ange. Wir nden kw viele linear unabh angige Vektoren in einem Komplement von U1 U2 Nw Nw1 in Nw und bezeichnen den Unterraum der von den -Zykeln dieser Basiselemente aufgespannt wird mit U3 . Wieder haben wir eine Basis von U3 . 5. Wir fahren so fort, bis wir eine Basis von ganz V f konstruiert haben. Jedem Kreuz im Diagramm ist nun genau ein Basiselement zugeordnet. Diese nummerieren wir nun durch, und zwar spaltenweise von oben nach unten und von links nach rechts. Dies ist dann unsere Jordanbasis. 13.3-13 Satz Jordansche Normalform:

1. Sei A eine n n-Matrix. Zerf allt das charakteristische Polynom von A in Linearfaktoren, so gibt es eine invertierbare n n-Matrix P , sodass P 1 AP Jordanform hat. 2. Sei f eine Endomorphismus des endlich dimensionalen K -Vektorraums V . Zerf allt das charakteristische Polynom von f in Linearfaktoren, so besitzt V eine Jordanbasis bez uglich f .

182

In beiden F allen ist die Jordansche Normalform bis auf die Reihenfolge der Jordank astchen eindeutig bestimmt. Ist K algebraisch abgeschlossen, so trit die Voraussetzung an das charakteristische Polynom f ur alle quadratischen K -Matrizen und alle Endomorphismen des K -Vektorraums V zu. Insbesondere ist C algebraisch abgeschlossen, so dass man dies auf komplexe Vektorr aume anwenden kann. Hier ist nun ein Beispiel: 13.3-14 Beispiel: Sei K Q und

2 0 0 0 A t

0 3 1 1 1 1 0

1 0 . 0 3

Dann ist

so dass A die Eigenwerte 2 mit Vielfachheit 3 und 3 mit Vielfachheit 1 hat. Daher ist V2 A drei- und V3 A eindimensional. Wir berechnen dimkerA 2E 4 rgA 2E 0 0 4 rg 0 0

t 23 t 3,

0 1 1 1 1 1 0

1 0 0 1

42

2.

Und nun k onnen wir die Jordansche Normalform schon hinschreiben. Das 2-Diagramm von A muss n amlich D2

sein, da nach 13.3-7 die Anzahl der Kreuze durch dimV2 A gegeben ist und die Anzahl der Kreuze in Zeile 1 durch dimV2 A 2. Das 3-Diagramm D3 besteht aus einem Kreuz. Also ist die Jordanform
von A die Matrix

diag J2 2, J2 1, J3 1

Jetzt wollen wir die Basiswechselmatrix ausrechnen: Dazu bestimmen wir erst eine Basis von V2 A kerA 2E 2 . 0 2 1 1 0 0 0 0 . A 2E 2 0 0 0 0 0 2 1 1 Eine Basis von kerA 2E 2 ist etwa durch
0 0 1 0 1 1 , , 2 0 0

2 0 0 0

1 2 0 0

0 0 2 0

0 0 . 0 3

gegeben. Der erste Vektor liegt in kerA 2E , nicht aber der zweite und der dritte. (Dies ist ein Beispiel f ur eine nicht angepasste Basis, siehe unten.) Wir k onnen nun einen dieser Vektoren w ahlen, die nicht in 183

kerA 2E liegen, er spannt dann automatisch ein Komplement von V2 A in V2 A auf, da dieses nur eindimensional ist. Wir w ahlen 0 1 y1 2 0 und berechnen v1

A 2E y1

Wir setzen v2

y1 und U1

v1 , v2 . Wegen
v3

1 1 . 1 1

0 U1 0

0 onnen daher v1 , v2 , v3 als Jordanbasis von spannt v3 ein Komplement von U1 in V2 A auf, und wir k alt man V2 A nehmen. Ordnet man die Basisvektoren den Kreuzen des 2-Diagramms zu, dann erh

; v1 v2 Wir berechnen noch eine Basis des Eigenraums V3 A:


D2

v3

v4

0 , 0

1 dann ist BA v1 , v2 , v3 , v4 die gew unschte Jordanbasis von V . Insbesondere ist 1 0 1 1 1 0 Q id E , BA 1 2 0 1 0 0

1 0 0 1

die Basiswechselmatrix und daher ist

Q1 AQ

2 0 0 0

1 2 0 0

0 0 2 0

0 0 . 0 3

ange k in V ist eine 13.3-15 Denition: Sei V ein K -Vektorraum. Ein Fahne (englisch ag ) der L aufsteigende Kette F : 0 U0 U1 Uk1 Uk V von Unterr aumen Ui von V . Eine Basis B v1 , . . . , vn von V heit an F angepasst , falls v1 , . . . , vmi eine Basis von Ui ist, wobei mi dimUi f ur i 1, . . . , k gesetzt wird.

184

Die Unterr aume kerf i des verallgemeinerten Eigenraums V f eines Endomorphismus f sind Beispiele von Fahnen, die zugeh orige Jordanbasis ist angepasst. Sie ist aber nicht nur dieser Fahne angepasst, sondern auch der Fahne, die man erh alt, indem man den Aufspann von den Basisvektoren in den ersten i Spalten des -Diagramms nimmt, d. h. der ersten i -Zykeln von f . Hier ist ein weiteres Beispiel: 13.3-16 Beispiel: Als Vektorraum V nehmen wir den reellen Vektorraum aller Polynome in den Variablen x, y u ber R vom Gesamtgrad 2. So ist E 1, x, y, x2 , y 2 , xy eine Basis von V . Als Endomorphismus Dx von V nehmen wir Dierenziation nach x, d. h. wir dierenzieren ein Polynom nach x, indem wir y als Konstante ansehen, z. B. f x 2x2 3xy y Wir wollen eine Jordanbasis f ur Dx nden. Erst berechnen wir eine Matrix f ur Dx :

x 2x2 3xy y

1 4x 3y.

Dx

0 0 0 0 0 0

1 0 0 0 0 0

0 0 0 0 0 0

0 2 0 0 0 0 t6 ,

0 0 0 0 0 0

0 0 1 0 0 0

Unmittelbar folgt nun

Dx t

A t

und daher ist 0 der einzige Eigenwert von Dx . Wegen rgA 3 6 3 ist dimV0 A 3. Wir haben

A2

A 0 E

0 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 0 0 0

2 0 0 0 0 0 0

0 0 0 0 0 0 0

0 0 0 0 , 0 0 0

und daher ist dimkerA 0 E 2 Diagramm ist:

5. Wir schlieen, dass das 0-Diagramm D0 von Dx das folgende

Jetzt k onnen wir schon die Jordanform von A hinschreiben: 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0

JA

185

Wir wollen aber auch eine Jordanbasis ausrechnen: Beachten Sie, dass Dx 0 Dx ist. Um also ein Element von kerDx 0 3 , das einen 0-Zykel der L ange 3 f ur Dx erzeugt, m ussen wir ein Polynom px, y mit nden. Das Polynom x2 E ist geeignet. So setzen wir y1 x2 und operieren mit Dx den davon erzeugten 0-Zykel f ur Dx zu berechnen. Wir erhalten x2 2x Dx x2 x und 2 2 Dx x 2 .

x2 px, y

Dx 0 , um

Wir setzen v1 2, v2 2x und v3 x2 . 2 Von den restlichen Vektoren in E sehen wir, dass y2 xy im Kern von Dx aber nicht im Kern von Dx liegt. Mit Dx xy y haben wir den 0-Zykel v4 y, v5 xy konstruiert. Der einzige noch verbleibende Basisvektor v6 y 2 liegt in der Tat im Kern von Dx und ist daher als Vektor in der Jordanbasis von Dx geeignet. Daher ist J 2, 2x, x2 , y, xy, y 2 die gesuchte Jordanbasis von Dx . Tr agt man die Basisvektoren in das 0-Diagramm ein, so erh alt man

2 ; 2x x2

y xy

y2

Hier ist noch eine einfache erste Anwendung der Jordanform: Eine quadratische Matrix A heit nilpotent , falls Ak die Nullmatrix ist f ur ein k N und unipotent , falls eine Potenz von A die Einsmatrix ist. Analog erkl art man nil- und unipotente Endomorphismen. Unser Standardbeispiel einer nilpotenten Matrix ist 0 0 . . . 1 0 0 1 . . . 0 0 0 0 0 0 ... 0 0 0 0 . .. . . . . 1 0 . . . 0 1 ... 0 0

J0 n

0 0

0 Die kleinste nat urliche Zahl k , sodass Ak

0 ist, heit Nilpotenzgrad von A.

13.3-17 Problem: Was kann eine nilpotente n n-Matrix f ur Eigenwerte haben, und was ist daher ihr charakteristisches Polynom? Kann man f ur unipotente Matrizen eine ahnliche Aussage machen? Hier ist eine kleine, aber wichtige Beobachtung: 13.3-18 Beobachtung: Sei R ein Ring, a, b R. Ist ab ba, so gilt der binomische Lehrsatz, d.h.

a b n

n i 0

n i ni ab . i

Dies stimmt i.a. nicht mehr, wenn a und b nicht kommutieren. Obige Summe l asst sich besonders einfach auswerten, wenn eines der Ringelemente nilpotent ist. Ist z.B. b2 0, so kollabieren die meisten Terme in der Summe, und wir erhalten: a bn an nan1 b.

186

13.3-19 Lemma: Sei A Mn K in Jordanform. Dann ist A Summe einer Diagonalmatrix D und einer nilpotenten Matrix N NA die kommutieren: A 13.3-20 Lemma: Seien A, N (unipotent). DN mit DN N D.

DA

ahnlich und sei N Mn K

nilpotent (unipotent). Dann ist A nilpotent

Damit erhalten wir den folgenden wichtigen Satz: 13.3-21 Satz Jordanzerlegung: Sei A eine n n-Matrix u ber K , deren charakteristisches Polynom in Linearfaktoren zerf allt. Dann gibt es eine diagonalisierbare Matrix S SA und eine nilpotente Matrix N NA mit A S N und SN N S. Die Zerlegung der Matrix A in obigem Satz heit (additive) Jordanzerlegung von A. F ur regul are Matrizen gibt es eine analoge Zerlegung in ein Produkt einer diagonalisierbaren und einer unipotenten Matrix, die kommutieren. Dies ist dann die multiplikative Jordanzerlegung von A GLn K . Nat urlich hat man analog Jordanzerlegungen f ur Endo- bzw. Automorphismen endlichdimensionaler Vektorr aume.

13.4

Das Minimalpolynom
f f v

Im Cayley-Hamilton Theorem 13.1-9 haben wir gesehen, dass jeder Endomorphismus f eines endlichdiullt, d. h. wir haben mensionalen K -Vektorraums V sein charakteristisches Polynom f t erf 0 f ur alle v

V.
0

Damit wird die Menge If

pt K t pf

interessant, und wir wollen diese im folgenden untersuchen. Wie immer haben wir analoge Resultate f ur quadratische Matrizen. Zuerst werden wir etwas Ringtheorie zur Verf ugung stellen. 13.4-1 Denition Ideal: Rechtsideal , falls gilt: Sei R ein Ring bzw. eine K -Algebra. Eine Teilmenge I

von R heit

1. a b I f ur alle a, b I . 2. ar I f ur alle a I und r

R.

Linksideale werden analog deniert. Ein (zweiseitiges) Ideal ist dann eine Teilmenge von R, die zugleich Links- und Rechtsideal ist. Wir schreiben I R, wenn I ein Ideal von R ist. 13.4-2 Bemerkung: 1. Jedes Ideal enth alt das neutrale Element der Addition, denn ist i I , dann ist 0 i 2. Sind a, b I , dann ist auch a b I , denn:

3. Ist I R ein Ideal, dann wird I zum Ring, indem man die die Addition und Multiplikation von R auf I einschr ankt. Ist J R ein Ideal, dass in I enthalten ist, dann ist J auch ein Ideal von I . 4. Ist R ein kommutativer Ring, so sind Ideale, Links- und Rechtsideale dasselbe. Ahnlich wie bei Vektorr aumen kann man nun Faktorstrukturen bilden. Die Beweise dazu unterscheiden sich im wesentlichen nicht von denen f ur Faktorr aume. 187

0 b I und daher a b

a b I .

0 I.

R. Dann wird durch ur r, s R r s  r s I f eine Aquivalenzrelation deniert. Die Aquivalenzklasse von r R bzgl. bezeichnet man mit r I , und die Menge der Aquivalenzklassen mit RI r I r R. RI wird zum Ring durch r I s I r s I r I s I rs I Diesen Ring nennt man Faktorring. Mie nat urliche Projektion ist gegeben durch : R R I : r r I . ist ein Ringhomomorphismus.
13.4-3 Denition/Satz: Sei R ein Ring und I 13.4-4 Problem: Sei f : R S ein Ringhomomorphismus. Zeigen Sie, dass ker f ein Ideal von R ist, und dass f injektiv ist genau dann, wenn ker f 0 ist. Wie schon in 10.1 angek undigt, gelten die Isomorphies atze auch f ur Ringe und deren Faktorstrukturen: atze f ur Ringe: 13.4-5 Problem: Zeigen Sie die Isomorphies 1. Sei f : R S ein Ringhomomorphismus, und I R ein Ideal, das im Kern von f enthalten ist. , der das folgende Diagramm kommutativ macht: Dann gibt es genau einen Ringhomomorphismus f R @ @ R
f

RI

- S  , f

Insbesondere gilt (mit I

ker f ), dass R ker f isomorph zu im f ist. J und I

2. Sei R ein Ring, und I, J zwei Ideale von R. Dann sind I ebenfalls Ideale von R und es gilt I I 3. Sei R ein Ring, und I, J, K J

i j

I, j J

I J J.

R Ideale mit K J I . Dann ist I J I K J K .

13.4-6 Bemerkung: Ideale sind genau die Kerne von Ringhomomorphismen, denn: Jeder Kern eines RI ein Ringhomomorphismus ist ein Ideal. Ist umgekehrt I ein Ideal eines Rings R, dann ist : R Ringhomomorphismus, dessen Kern wiederum I ist. So ist jedes Ideal auch der Kern eines Ringhomomorphismus. 13.4-7 Lemma: Sei f ideal.

EndK V . Dann ist If

ein Ideal von K t, das sogenannte Verschwindungs-

Wir benutzen nun eine wichtige Eigenschaft von Polynomen, die Ihnen noch von der Schule bekannt sein sollte, die Polynomdivision:

188

13.4-8 Satz Division mit Rest: Seien h, g K t, und sei deg g q, r K t mit deg r deg g , sodass ht g tq t rt ist. Das Polynom rt ist der Rest bei der Polynomdivision. Ein Polynom g t

deg h. Dann gibt es Polynome

0 1 t n1 tn1 n tn

K t

heit normiert, falls n 1 ist. Im allgemeinen nennt man den Koezienten n den f uhrenden Koezienten von g . Damit folgt unmittelbar: 13.4-9 Satz: Sei 0 I ein Ideal von K t und sei p I ein nichttriviales Polynom minimalen Grades pK t und wir haben I rK t f ur ein r K t genau dann, wenn r p f ur eine in I . Dann ist I Konstante 0 K ist. Daher gibt es genau ein normiertes Polynom q I , sodass I qK t ist. Man nennt q den normierten Erzeuger von I . Ideale, die wie im Satz von einem Element erzeugt werden, heien Hauptideale . Der Satz zeigt, dass alle Ideale von K t Hauptideale sind. Ahnlich kann man dies auch f ur Z und andere Euklidischen Ringe (siehe oben) zeigen. 13.4-10 Denition: Sei f EndK V . Das eindeutig bestimmte normierte Polynom kleinsten Grades in If heit Minimalpolynom von f und wird mit f t bezeichnet. Analog ist das Minmalpolynom A t einer quadratischen Matrix A deniert. So ist f t das normierte Polynom kleinsten Grades mit f f 13.4-11 Korollar: Sei p K t mit pf pt q tf t 0. Wegen If f tK t gilt: 0. Dann gibt es q t K t, sodass

ist, d. h. das Minimalpolynom f t teilt p. Insbesondere teilt das Minimalpolynom das charakteristische Polynom von f . 13.4-12 Satz: Die Minimalpolynome ahnlicher Matrizen stimmen uberein. ur ein h Autk V ist. Obiger Zwei Endomorphismen f und g von V heien konjugiert , falls f h1 gh f Satz besagt dann auch, dass konjugierte Endomorphismen dasselbe Minimalpolynom haben. Und ist A eine Matrix zu einer Basis von V zu f , so haben A und f dasselbe Minimalpolynom. Hier kommt nun der entscheidende Satz: 13.4-13 Satz: Sei f EndK V . Dann ist ein Skalar genau dann Nullstelle des Minimalpolynoms f t, wenn er Eigenwert von f ist. So stimmen die Nullstellen von f t und f t uberein. V1 Vk eine 13.4-14 Satz: Sei f EndK V und zerfalle f t in Linearfaktoren. Sei V Zerlegung von V in f -invariante Unterr aume Vi . Sei i das Minimalpolynom von der Einschr ankung fi k von f auf Vi f ur i 1, . . . , k . Dann gilt: f t teilt i 1 i t, und jedes i t teilt f t. Sind daher die i t paarweise teilerfremd, so gilt: f t Analog erh alt man:
k i 1

i t .

189

13.4-15 Korollar: Sei

J1 0 . . .
0

0 J2

... .. .

0 0 Jk1 0

...

Blockdiagonalmatrix, und zerfalle A t in Linearfaktoren. Dann ist A t falls die Ji t paarweise teilerfremd sind.
k i 1

0 Jk

0 0 . . .

Ji t,

13.4-16 Problem: Was ist das Minimalpolynom eines Jordank astchens J n? Und von einer Blockdiagonalmatrix A diag J m, J k ? Und von einer Blockdiagonalmatrix B f ur K? diag J m, J k ,

F ur Endomorphismen, f ur die eine Jordanbasis existiert, k onnen wir das Minimalpolynom nun bestimmen: 13.4-17 Satz: Sei f

EndV , und sei f t t 1 n t 2 n t k n


1 2

wobei die i paarweise verschieden sind. Dann ist f t

t 1 m t 2 m t k m
1 2

wobei der Exponent mi f ur 1 i k die kleinste nat urliche Zahl s mit kerf i s kerf i s1 , d. h. die Gr oe des gr oten Jordanblocks zum Eigenwert i , ist. Insbesondere ist f diagonalisierbar genau dann, wenn f t t 1 t 2 t k ist. Insbesondere ist also mi ni . Man erh alt den Exponenten mi als L ange des l angsten f i -Zyklus verallgemeinerter Eigenvektoren oder, was auf dasselbe heraus kommt, als Gr oe des gr oten Jordanblocks von f zum Eigenwert i . Ist also A diag J k1 , J k2 , . . . mit k1 k2 . . ., so ist A t

t k
1

d. h. der entsprechende Exponent m im Minimalpolynom ist k1 . Sp ater werden wir diesen Satz noch verallgemeinern: Ein Polynom ist irreduzibel , falls es nicht als Produkt zweier Polynome echt kleineren Grades geschrieben werden kann. So sind Polynome vom Grad eins irreduzibel, und K ist algebraisch abgeschlossen genau dann, wenn dies die einzigen irreduziblen Polynome sind (Konstanten gelten nicht als irreduzibel). 190

Jedes Polynom l asst sich dann bis auf skalare Faktoren eindeutig als Produkt irreduzibler Polynome schreiben (diese sind also f ur K t, was Primzahlen f ur Z sind). Der Satz lautet dann, dass das Minimalpolynom und das charakteristische Polynom dieselben irreduziblen Faktoren haben, nur beim Minimalpolynom eventuell mit geringerer Multiplizit at.

13.5

e hoch Matrizen

In diesem Abschnitt sollen kurz eine Anwendung der Jordanform auf Systeme linearer Dierenzialgleichungen vorgestellt werden. Dies erweitert unsere Diskussion in Abschnitt 11.3. Die Vorgehensweise wird dabei nur angerissen, wir verzichten weitgehend auf Beweise und Details. ur j 1, . . . , n. Wir beginnen mit einer komplexen n n-Matrix A ij , und komplexen Zahlen j , j f Wir suchen auf R einmal stetig dierenzierbare komplexwertige Funktionen yj t, die folgenden Bedingungen gen ugen:

t D : yj
und

n k 1

jk yk t j

A : yj 0

j .

Wir nennen dies die Anfangswertaufgabe A f ur das System D, da wir uns die Variable t als Zeit vorstellen, und dann die Anfangswerte zum Zeitpunkt t 0 vorgegeben sind. In Matrizenform ist das dann: D : y t mit y t

Ay t c und A : y 0

t y1 . . . , y t t yn

y1 t . . . , b y n t

1 . . . und c n

1 . . . . n

Wir beschr anken uns hier auf den Spezialfall c 0 Cn (den sogenannten homogenen Fall) und betrachosung von D (mit 11 ), wobei eine Konstante ten zun achst n 1. Oensichtlich ist y et eine L ist. Die Anfangsbedingung A : y 0 (b C1 ) impliziert dann und wir haben y t et als eindeutige L osung unseres Anfangswertproblems gefunden. In 11.3 hatten wir gesehen, wie wir die L osungsgesamtheit von D nden k onnen, unter der Zusatzvoraussetzung, dass A diagonalisierbar ist. Das heit n amlich dann, dass man das System entkoppeln und auf n Dierentialgleichungen der Form uckf uhren kann. y t i y t (wobei die i die Eigenwerte von A sind), zur osungen des Anfangswertproblems erhalten wir dann: Sei also momentan A diag 1 , . . . , n . Als L

y t

1 e1 t . . . . . . n en t

e1 t en t .. . en t

. . . . . .

Hier ist eine Interpretation dieser Formel: Die allgemeine Exponentialfunktion kann man auch u ber eine Potenzreihe denieren: i e i! i 0

191

f ur C. Im Ausdruck auf der rechten Seite k onnen wir nun durch ein beliebiges Element eines Ringes ersetzen, in dem die ganzen Zahlen invertierbar sind, solange wir einen vern unftigen Konvergenzbegri haben, um unendliche Summen zu erkl aren. F ur die Matrix A oben gilt aber:
m Ai i 0

i!

diag

m i 1 i 0

i!

,......,

m i n i 0

i!

was nat urlich beim Grenz ubergang m eA ediag1 ,...,n diag e1 , . . . , en

plausibel erscheinen l asst. Der hier zugrunde gelegte Konvergenzbegri ist der komponentenweisen Konvergenz: Eine Folge von Matrizen konvergiert gegen eine Grenzmatrix genau dann, wenn die Folge der ij -Eintr age der Matrizen gegen den ij -Eintrag der Grenzmatrix konvergiert f ur jedes Indexpaar ij . Damit l asst sich die L osung unseres Anfangwertproblems durch folgende einfache Formel beschreiben: y t eAt b.

Nun, da steht auch die L osung des allgemeinen Problems, d.h. wenn wir nicht mehr voraussetzen, dass die Matrix A diagonalisierbar ist. Dann beschreibt obige Gleichung die eindeutige L osung des homogenen Anfangswertproblems oben. Um das zu verstehen, m ussen wir noch etwas arbeiten. Mit einem Ausdruck der Form m Ai Bm i! i 0 ist oensichtlich viel schwerer umzugehen, wenn A keine Diagonalmatrix ist. Auch ist es von vornherein alles andere als klar, ob die Folge der Matrizen Bm f ur m komponentenweise konvergiert, und selbst wenn, dann ist die Grenzmatrix noch lange nicht konkret ausgerechnet. Zun achst drehen wir etwas am Konvergenzbegri. Wir f uhren einen sch arferen Grenzwertbegri ein, der sich zur komponentenweise Konvergenz verh alt wie gew ohnliche zur gleichm aigen Konvergenz bei Folgen von Funktionen. Was heit das, dass eine Folge von Objekten konvergiert? Das bedeutet doch, dass, egal wie klein man einen Abstand vorgibt, alle Folgenglieder ab einem N N (das vom gew ahlten Abstand abh angt) weniger als voneinander entfernt sind. Und ein Objekt heit dann Grenzwert der Folge, wenn sich alle Folgenglieder nach dem N -ten in weniger als -Entfernung zum Grenzwert aufhalten. Um das denieren zu k onnen, braucht man zuerst ein Konzept der N ahe . Dies geschieht f ur Vektorr aume (und K -Algebren), indem man eine L ange von Vektoren deniert und dann daraus den Abstand zweier Vektoren als L ange ihrer Dierenz deniert. (Dies ist ein geometrisches Ingredient. Bisher haben wir uns exklusiv mit Algebra besch aftigt. Geometrie hat aber mit Messen zu tun, also z.B. mit dem Messen der L ange von Vektoren etc., wie wir dies im letzten Kapitel gesehen haben.) Auf einem normierten Vektorraum k onnen wir Konvergenz und Grenzwerte denieren und zwar genau so, wie wir es gewohnt sind: 13.5-1 Denition: Sei V ein normierter Vektorraum mit Norm (siehe Denition 9.0-1), und sei v vi iN eine Folge von Vektoren in V . Dann heit v Cauchyfolge (kurz CF ), falls gilt:

 

N k, l N k
192

N : vk vl N : vk v

Der Vektor v heit Grenzwert oder Limes der Folge v, falls gilt: 0 N .

Cauchy, Augustin Louis Baron (1789-1857), franz osischer Mathematiker und Physiker, versuchte, die h ohere Mathematik exakt zu begr unden. Er hatte u ber 800 Publikationen, unter anderem in der Theorie der Dierentialgleichungen (Cauchy-Riemann-DGL), Theorie der unendlichen Reihen (Cauchysches Konvergenzkriterium), Funktionentheorie (Cauchysche Integralgleichung), Zahlen-, Determinanten-, Wahrscheinlichkeitstheorie und Himmelsmechanik. Eine Folge, die einen Grenzwert v besitzt, heit konvergent . Wir schreiben dann
i

lim vi

v,

um den Grenzwert v der Folge zu bezeichnen. Jede konvergente Folge in V ist CF aber nicht umgekehrt. Ist jede Cauchyfolge in V konvergent, so heit V vollst andig . Ein vollst andiger normierter K -Vektorraum heit Banachraum . Banach, Stefan (1892-1945), war polnischer Mathematiker. Er wurde haupts achlich f ur seine grundlegenden Arbeiten in der Funktionalanalysis bekannt. Insbesondere f uhrte er Banachr aume ein und lieferte wichtige Beitr age zur reellen Analysis, Orthogonalreihen und Masstheorie. Banachr aume brauchen nicht endlich dimensional zu sein. Gerade die wichtigsten Banachr aume sind Vektorr aume reeller oder komplexer Funktionen und sind unendlich dimensional. Wir besch aftigen uns hier allerdings ausschlielich mit endlich dimensionalen Banachr aumen. Hier sind einige grundlegende Fakten (ohne Beweis): 13.5-2 Fakt: 2. Sei V endlich dimensional, und seien und zwei Normen auf V . Konvergiert eine Folge vi gegen v im Sinne der Norm , dann auch im Sinne der Norm und umgekehrt. Alle Normen auf V liefern also denselben Konvergenzbegri. 13.5-3 Fakt: Konvergenz bez uglich einer Vektorraumnorm auf V impliziert komponentenweise Konvergenz. Die Menge der n n-Matrizen u agt auch die ber K bildet nicht nur einen K -Vektorraum, sondern tr orige AbstandsStruktur einer K -Algebra (siehe 5.5-8). Eine Vektorraumnorm auf Mn K und die zugeh funktion kann die Multiplikation zu einer stetigen Abbildung machen (von Mn K Mn K nach Mn K ) oder nicht. 13.5-4 Denition: Sei K R oder K C und sei A eine K -Algebra. Eine Norm auf A heit Algebrennorm , falls sie eine Vektorraumnorm im Sinne von Denition 13.5-1 ist und zus atzlich gilt: AB A 1. Jeder endlich dimensionale normierte Raum ist vollst andig.

A, B A.

Ist A vollst andig bez uglich einer Algebrennorm, so spricht man von einer Banachalgebra . Insbesondere sind also endlich dimensionale Vektorr aume mit Algebrennorm Banachalgebren. ur 1 13.5-5 Fakt: Auf Mn K denieren wir f

p
n

eine Norm durch


1 p

A f ur A

p i,j 1

ij

ij . F ur 1

2 sind dies Algebrennormen.

Jetzt sind wir in der Position zu zeigen, dass man beliebige quadratische komplexe Matrizen exponenzieren kann, wir brauchen lediglich die Konvergenz bez uglich irgendeiner Algebrennorm zu zeigen. 193

13.5-6 Satz: Seien A, B

MnC und sei P GLn C.


Sk
k Ai i 0

1. Der Grenzwert der Folge i!

existiert bez uglich jeder Algebra-Norm auf Mn C und auch komponentenweise. Er wird mit eA bezeichnet. 2. Es gilt 3. Ist AB BA, so gilt: P 1 eA P eA eB eP
Ai
i 0

i!

1 AP

eAB

eB eA . eA .

4. eA ist invertierbar mit

eA 1

5. Sind 1 , . . . , n die Eigenwerte von A, so hat eA die Eigenwerte e1 , . . . , en . 6. deteA 7. Sei A diag B1 , . . . , Bs in Blockdiagonalform mit Diagonalbl ocken Bi . Dann ist eA ebenfalls in Blockdiagonalform eA diag eB1 , . . . , eBs mit Diagonalbl ocken eBi , ( i 1, . . . , s). etrA .

In Teil 3 des Satzes brauchen wir wirklich die Bedingung AB BA und diese kann auch nicht abgeschw acht werden (etwa zu eA eB eB eA ), wie Beispiele zeigen. Hier ist nun ein Verfahren, wie wir eA mit Hilfe des Satzes oben eA konkret berechnen k onnen: Wir nutzen aus, dass C nach dem Hauptsatz der Algebra algebraisch abgeschlossen ist, und daher A auf Jordanform gebracht werden kann. Dann zerlegen wir diese gem a 13.3-19 als Summe einer Diagonalund einer nilpotenten Matrix. Da diese kommutieren, k onnen wir Teil 3 des obigen Satzes 13.3-19 anwenden. Wie wir Diagonalmatrizen zu exponenzieren haben, wissen wir. F ur nilpotente Matrizen haben wir oensichtlich: 13.5-7 Lemma: Sei N eine quadratische nilpotente Matrix vom Nilpotenzgrad k . Dann ist eN
Ni
i 0 k 1 i 0

Ni
i!

i!

uhrt man zur Berechnung von eA folgende Schritte aus: 13.5-8 Prozedur: Sei A Mn C. Dann f 1. Zuerst bringen wir A auf Jordanform, d.h. wir berechnen eine Matrix P
0 . . . 0

J1

P 1 AP

0 J2

... .. .

0 0 Js1 0

0 ist, wobei Ji ein Jordanblock ist. 194

...

0 Js

0 0 . . .

GLn C, sodass

2. Sei Ji

J k ein Jordanblock. Sei auerdem

0 0 . . .
0 0

1 0 0 1 . . . 0 0 0 0 0 0

... .. .

0 So gilt J k E N und E N

... ...

. 1 0 0 1 0 0

0 0 0 0 . . .

N E . Nach Satz 13.5-6 und Lemma 13.5-7 ist 1 0 . . e . 0 0 0 1 1 . ... ... ... ..
1 2!

1 .. 0 0 0 .

1 3! 1 2!

eJi

eE N

eE eN

.. 1 0 0

... ... .. . 1 1 0

k1! 1 k2!
. . .
1 2!

1 1

3. Nach Satz 13.5-6, Teile 2 und 7 haben wir dann eJ1 0 . P . .


0

0 eJ2

... .. .

0 0 eJs1 0

1 P . 0

0 0 . . .

...

eJs

Haben wir nun unser Problem vom Anfang des Abschnitts f ur Systeme linearer Dienzialgleichungen gel ost? Haben wir noch nicht ganz! Wir hatten herausgefunden, dass das homogene Anfangswertproblem DA : y t die eindeutige L osung y t Ay t, eAt b y 0 b

hat. Hier ist t eine Variable. Eigentlich ist also eAt gar keine komplexe Matrix mehr, sondern muss vielmehr als eine Matrix u oeren Bereich, etwa dem rationalen Funktionenk orper K Ct ber einem gr aufgefasst werden. Der ist aber nicht algebraisch abgeschlossen (das Polynom T 2 t K T hat etwa keine Nullstelle in K ). Man sieht leicht, dass die Matrix At u ber K in der Tat i. a. keine Jordanform hat. Wir k onnen uns aber anders behelfen. 13.5-9 Prozedur: Zun achst f uhren wir den 1.Schritt von Prozedur 13.5-8 aus und erhalten die Jordanform JA P 1 AP von A. Dann ist aber P 1 tAP tP 1 AP tJA und daher gen ugt es nach Satz tJi f ur die Jordanbl ocke Ji von A zu berechnen. Sei etwa wieder Ji 13.5-6 die Matrizen e J k . Wir haben dann mit N wie in 13.5-8 tk1 t3 t2 . . . k 1 t 2! 3! 1! t2 tk2 0 1 t . . . k 2! 2! . . . . . . tE tN tE tN t . tJi . . . . . . . . . . e e e e . e . 0 . . . t2 0 1 t 2! 0 . . . 0 0 1 t 0 ... 0 0 0 1 195

Nun erhalten wir eAt

P diag etJ1 , . . . , etJs P 1 .

Viele Beispiele aus der Physik (z.B. mechanische Schwingungen eines Systems von endlich vielen Massepunkten, induktiv gekoppelte elektrische Schwingkreise) f uhren auf Systeme linearer Dierentialgleichungen, die h ohere Ableitungen involvieren (meistens auch die zweite). Diese lassen sich aber auf unsere Situation zur uckf uhren: 13.5-10 Fakt: Seien Aj Anfangswertaufgabe

Mn C f ur 0
DA : y m t

m 1 und bj
m 1 j 0

Cn vorgegeben. Dann hat die homogene


y j 0 bj

Aj y j t,

osung y t, die man wie mit j 0, . . . , m 1 genau eine L Wir setzen y t y t z t . . . und

folgt erh alt:


.

y m1 ... .. .. .

0 0

0 0 . . .

E 0 . . . 0 0 A1

0 E .. . 0 0 A2

0 0 . . . E 0

0 0 . . . 0 E

A0

. ... ...

Am2

Am1

Die eindeutige L osung von DA ergibt sich dann als eindeutige L osung des Anfangswertproblems z t Cz t z 0 b0 . . . . bm1

mit

(Hier setzen wir die Vektoren y j t und die bj zu groen Vektoren z t und z 0 zusammen).

13.6

Lineare Schwingungen ohne Reibung

Als eine Anwendung der Theorie linearer Dierentialgleichungen wollen wir ein Problem aus der Physik betrachten. Gegeben sei eine Kette von n Masseteilchen m1 , m2 , . . . , mn (hierbei bezeichne mi auch gleich die Masse des i-ten Teilchens), die durch (als masselos betrachtete) Federn miteinander verbunden sind. Dabei ist einer der beiden Endpunkte der Kette an einer Wand befestigt. F ur n 3 etwa sieht die Anordnung wie folgt aus

196

Diese Anordnung kann zum Beispiel als Simulation eines an einem Endpunkt an der Wand befestigten elastischen Bandes betrachtet werden, indem man die Distanz (L ange der Federn) gegen 0 und die Zahl n der Masseteilchen gegen unendlich gehen l asst. Wir wollen das Schwingungsverhalten der Anordnung betrachten. Dabei wollen wir das System soweit als m oglich verallgemeinern, um somit anhand des konkret vorgegebenen Systems eine m oglichst groe Klasse von physikalischen Situationen zu beschreiben. Wie sieht die mathematische Beschreibung der Versuchsanordnung aus? Relevant ist hierbei die Beschreibung der Ortskoordinaten xi t der mi zur Zeit t. Dabei nehmen wir an, dass das Band nicht seitlich angestoen wird. Es ist also nur eine vertikale Auslenkung der Massen m oglich, d. h. wir k onnen uns auf eine Ortskoordinate f ur jedes i beschr anken. Nach Newton wird nun allgemein die Ortsbahn einer Masse m beschrieben durch f m a,

wobei f die auf m wirkende Kraft ist und a ihre Beschleunigung. Welche Kr afte wirken auf mi ? Zum einen wirkt eine konstante externe Kraft ki , in unserem Falle die Gravitation. Als n achstes wirkt eine Kraft proportional zur Entfernung zu einem festen Punkt pi , wir schreiben sie als cii xi t pi. ur i 1 und wird f ur i In unserem Falle ist cii 0 f Endpunkt der Kette bestimmt. Allgemein kann man cii 0 1 durch die Feder zwischen m1 und dem oberen

annehmen (ansonsten w urde eine abstoende Kraft wirken, die das gesamte System instabil werden l asst). Schlielich wirken anziehende Kr afte zwischen den Massen, die proportional zu den Abst anden zwischen den Massen sind. Wir schreiben cij xi t xj t f ur die von mj auf mi ausge ubte Kraft mit cij Wir erhalten die Gleichungen mi x i t 0.

j i

ciixi t pi

cij xi t xj t ki .

Wir k onnen nun die konstanten Terme und die zu den einzelnen is geh orenden Terme zusammenfassen und denieren d Rn mit Eintr agen di cii pi ki sowie M

mij , A aij Mn R mit Eintr agen


mij aii
n k 1

ij mj , aij

cik ,

cij i

j.

age eines n-dimensionalen Vektors xt, so k onnen wir Betrachten wir die Koordinaten xi t als Eintr obige Gleichungen zusammenfassen zu M x t

Axt d.

Um die Bewegungsgleichungen zu erhalten, m ussen wir insbesondere die Matrix A untersuchen. Zuerst zwei Beobachtungen: 197

13.6-1 Beobachtung: Die Kr afte zwischen zwei Massen werden durch eine Feder vermittelt. Eine Feder u bt aber an ihren Enden Kr afte gleicher Gr oe in entgegengesetzter Richtung aus. Da auch die Dierenzen xi t xj t und xj t xi t von gleicher Gr oe aber entgegengesetzten Vorzeichens sind, muss aij cij cji aji gelten. D. h. A ist symmetrisch. Weiter gilt f ur die Zeilensummen

aij

aii

j i

aij

cij

j i

cij

cii

0.

13.6-2 Denition: Eine Matrix A erf ullt sind: 1. aij 2.


j

aij heit Oszillationsmatrix , falls die folgenden Eigenschaften

aji 0.

0 f ur i

j (insbesondere ist A symmetrisch),

aij

Unsere Matrix A ist also eine solche Oszillationsmatrix. Nun wollen wir uns das Zusammenspiel zwischen Mathematik und physikalischer Realit at etwas n aher anschauen. Hierzu denieren wir uns auf der Menge 1, . . . , n eine Aquivalenzrelation durch A j und j
A A

j 1, . . . , n
j2 ... jr i r 1.

i f ur j

i, falls es eine Kette j j1

gibt mit aj j1 0 f ur alle 1

Die Aquivalenzklassen von A heien die Komponenten von A. Man sieht nun sofort, dass bei entsprechender Anordnung der Massen

A1 A2 .. . As

ist, wobei gilt: A besitzt s Komponenten Ki mit ni Ki und Ai Mni R. Bei der Untersuchung von Oszillationsmatrizen kann man sich auf solche mit einer einzigen Komponente beschr anken. Die physikalische Interpretation der Komponenten ist, dass es genau dann eine (evtl. indirekte) elastische Verbindung zwischen mi und mj gibt, falls i und j in derselben Komponente liegen, in unserem Beispiel hat A nur eine Komponente. 13.6-3 Denition: Wir nennen eine Komponente Ki frei , falls alle Zeilensummen von Ai identisch 0 sind, und gebunden , falls sie nicht frei ist. Eine Komponente ist genau dann frei, wenn cjj 0 ist f ur alle j Ki . Physikalisch bedeutet dies, dass die Masseteilchen (bis auf konstante Kr afte) nur Kr aften unterworfen sind, die sie gegenseitig aufeinander aus uben. Man nennt ein solches System ein abgeschlossenes System.

198

Insbesondere gelten f ur die Menge der Masseteilchen zu einer freien Komponente diverse Erhaltungss atze der Physik. Nun wollen wir Eigenschaften von Oszillationsmatrizen untersuchen, um die Bewegungsgleichungen unseres Problems zu nden. Wie schon oben erw ahnt, k onnen wir uns dabei auf Oszillationsmatrizen mit nur einer Komponente beschr anken. Sei f ur den Rest des Kapitels A aij Mn R eine Oszillationsmatrix mit nur einer Komponente. Bevor wir den Hauptsatz formulieren, einige Fakten u ber A. 13.6-4 Fakt: Sei M eine symmetrische, reelle Matrix und D eine Diagonalmatrix mit positiven Einuber R diagonalisierbar. Insbesondere besitzt D1 M tr agen auf der Hauptdiagonalen. Dann ist D1 M nur reelle Eigenwerte. Dies wurde im Zuge der Untersuchungen euklidischer Vektorr aume bewiesen. 13.6-5 Lemma: Sei A eine Oszillationsmatrix mit nur einer Komponente. 1. Die Eigenwerte von A sind nicht negativ. 2. Ist die Komponente von A gebunden, so sind die Eigenwerte von A positiv. 3. Ist die Komponente von A frei, so ist 0 einfacher Eigenwert von A. 13.6-6 Korollar: Sei A Oszillationsmatrix und D Diagonalmatrix mit positiven Eintr agen auf der Hauptdiagonalen. Dann besitzt DA nur nicht-negative Eigenwerte. A und DA besitzen dieselben Eigenr aume zum Eigenwert 0. F ur den nachfolgenden Satz ben otigen wir noch 2 allgemeine Resultate. 13.6-7 Lemma: Seien X, Y, Z, U dann gilt

Mn K f ur einen K orper K und gelte XZ


X det Z

ZX sowie detX

0,

Y U

detXU

ZY .

13.6-8 Lemma: Sei X

Mn C. Wir setzen

0 X

E 0

und

0 0

1 0

1. Ist X t das charakteristische Polynom von X , so ist X X t2 das charakteristische Poly t . nom von X Sind a1 , . . . , an die Eigenwerte von X (mit Vielfachheiten), so sind a1 , . . . , an die Eigenwerte . von X 2. Sei X diagonalisierbar mit Eigenwerten a1 ... ar 0 und aj 0 f ur j r. Dann existiert T GL2n C mit

J .. . J ar1

T 1 XT

ar1

..

. an

an

199

wobei J r-mal vorkommt 13.6-9 Satz: Das Dierenzialgleichungssystem M x t mit M und d wie oben, wird wie folgt gel ost. 1. Ist die Komponente von A gebunden, so existiert eine eindeutige Gleichgewichtslage w A1 d. Sei v1 , . . . , vn eine Basis aus Eigenvektoren von M 1A, sodass vi ein Eigenvektor zum Eigenwert 2 i ist. Dann ist die allgemeine L osung des Dierenzialgleichungssystems gegeben durch xt w
n

Axt d

k cos k t k sin k tvk

k 1

.,v 2. Ist die Komponente von A frei, so sei f, v2 , . . n wiederum eine Basis aus Eigenvektoren von 1 . . Sei m mj die Summe aller Massen und M 1A (jeweils zum Eigenwert i2 ) mit f . . 1 k die Summe aller Eintr age von d. Wir denieren den Schwerpunkt des Systems durch st 1 1 k 2 t osung des mj xj t m m xt M f . Dann gilt st 2m t s 0t s0. Die allgemeine L
j j

mit , R. Die L osung xt ist durch die Vorgabe von x0 und x 0 eindeutig bestimmt.

Dierenzialgleichungssystems ist gegeben durch xt stf

n j 1

j cos j t j sin j tvj

mit , R, wobei v ein konstanter Vektor ist. Wieder ist xt durch die Vorgabe von x0 und x 0 eindeutig bestimmt. uhrt also einen freien Fall w ahrend 13.6-10 Bemerkung: Der Schwerpunkt eines freien Systems vollf das System um ihn mit harmonischen Schwingungen oszilliert. Die auftretenden i nennen wir die Eigenfrequenzen des Systems.

13.7

Motivation

Mit der Jordanschen Normalform haben wir in jeder Ahnlichkeitsklasse von n n-Matrizen spezielle Matrizen entdeckt, die besonders einfach strukturiert sind: Blockdiagonalmatrizen von Jordanbl ocken. Dies l ost das Problem, Normalformen von Matrizen zu nden oder, aquivalent dazu, Basen von endlich dimensionalen Vektorr aumen zu nden, die sich bez uglich eines gegebenen, festen Endomorphismus von V besonders gutartig verhalten. Die Sache hat nur einen Haken: Der gew ahlte Grundk orper muss algebraisch abgeschlossen sein, damit f ur jeden Endomorphismus von V eine solch gutartige Basis von V existiert. F ur einen einzelnen Endomorphismus braucht man, dass sich sein charakteristisches Polynom in Linearfaktoren zerlegen l asst. Was ist also zu tun, wenn der zugrundeliegende K orper nicht algebraisch abgeschlossen ist, z. B. wenn es sich um den K orper Q der rationalen Zahlen handelt?

200

Hier m ussen wir wesentlich weiter ausholen und werden im Zuge der L osung dieses Problems ein wesentlich allgemeineres Problem l osen: Wir werden die endlich erzeugten Moduln u ber Hauptidealringen klassizieren. Hier ist die Grundidee, wie das funktioniert: Sei also: orper K K V K -Vektorraum, dimK V n f EndK V fester Endomorphismus. ur einen Hauptidealring Sei R K t der Polynomring u ber K in der Variablen t. K t ist ein Beispiel f (vergleiche 13.4-9). Beachte: f

EndK V

fi

f f . . . f EndK V .
i mal

Setze: f 0 idV (klar: f 1 f ). EndK V ist K -Algebra (siehe 5.5-7), d. h. jede Linearkombination von Endomorphismen von V ist wieder ein Endomorphismus von V , insbesondere ist
n i 0

i f i

0 idV

1 f 2 f f . . . n f . . . f
n mal

ein Endomorphismus von V ( f ur 0 , 1 , . . . , n K ). Mit anderen Worten: F ur jedes Polynom pt 0 1 t . . . n tn K t haben wir einen Endomorphismus pf von V . 13.7-1 Problem: Zeigen Sie: Die Abbildung Ef : K t ist ein K -Algebra-Homomorphismus. Dies deniert eine Operation von K t auf V , d. h. eine skalare Multiplikation K t V V : pt, v EndK V : pt pf EndK V 0 f 0 1 f

2 f 2 . . . n f n

pf v V.

13.7-2 Problem: Zeigen Sie, dass die abelsche Gruppe V, zusammen mit der skalaren Multiplikation K t V V,

die wir oben deniert haben, die Vektorraumaxiome aus Denition 4.1-1 erf ullt mit der Ausnahme, dass K t kein K orper ist! Man spricht von einem K t-Modul V (exakte Denition folgt sp ater). Wir werden sehen: Diese K tModuln haben eine besonders sch one Struktur. ankung der Operation Klar: Ein K t-Modul V ist zugleich ein K -Vektorraum, einfach durch die Einschr von K t auf V auf die konstanten Polynome (die gerade K sind). aume endlich dimensional sind. 13.7-3 Idee: Untersuche K t-Moduln, die als K -Vektorr

201

13.7-4 Ziel: Wir klassizieren alle K t-Moduln V mit dimK V Moduln. Was heit das??

. Bzw. allgemeiner: Alle K t-

13.7-5 Klassikationsproblem: Gegeben sei eine (algebraische, topologische, geometrische, analytische. . . ) Struktur durch Axiome. Wir haben eine Denition von nicht wesentlich verschiedenen Objekten, die diesen Axiomen gen ugen, durch Isomorphismen (bzw. allgemeiner k onnen wir Objekte dieser Struktur durch strukturerhaltende Abbildungen, sogenannte Morphismen , miteinander vergleichen. Solche Strukturen mit strukturerhaltenden Abbildungen heien Kategorien ). Die Klassikation aller Objekte, die den gegebenen Axiomen gen ugen, beinhaltet dann eine Liste von Objekten zu erstellen ( Prototypen) mit folgenden Eigenschaften: i) Je zwei verschiedene Objekte der Liste sind nicht isomorph. ii) Jedes Objekt der Kategorie ist isomorph zu einem Objekt aus der Liste. aume (K fest gew ahlter 13.7-6 Beispiel: Wie sehen die Prototypen in der Kategorie der K -Vektorr K orper) aus? Morphismen sind K -lineare Abbildungen. Isomorphismen sind bijektive K -lineare Abbildungen. Eine Liste ist gegeben durch: K n mit n irgendeine Kardinalit at (n 1, 2, . . . , abz ahlbar unendlich, u ahlbar). berabz K n. Wir wissen: Ist V ein K -Vektorraum der Dimension n, dann ist V Hat man die Objekte einer Kategorie auf diese Weise durch eine Liste von Prototypen klassiziert, so ist man noch keineswegs fertig. Man hat noch mit dem Wiedererkennungsproblem zu tun und das kann durchaus noch sehr hart sein. 13.7-7 Wiederkennungsproblem: Seien Objekte einer Kategorie durch eine Liste von Prototypen klassiziert und sei A irgendein Objekt der Kategorie. Zu welchem Prototyp aus meiner Liste ist dann A isomorph? aume: Sei V ein K -Vektorraum. Wie erkennt man, zu welchem Prototypen 13.7-8 Beispiel: K -Vektorr V isomorph ist? Es gen ugt dimK V zu bestimmen. Denn dann ist V isomorph zum Prototyp K dimK V . Zur uck zu K t. Die Idee ist, die K t-Moduln zu klassizieren. Ist V ein K -Vektorraum, f EndK V dimK V und V der K t-Modul von oben, so muss das Wiedererkennungsproblem gel ost werden. Wir werden sehen, dass sich dann eine besonders sch one K -Basis B von V nden l asst, bzgl. derer die Matrix von f eine besonders sch one Struktur hat. one Art von Ring, ein sogenannter Hauptidealring (was immer das heit, K t ist eine besonders sch Denition sp ater). Z ist ebenfalls ein Hauptidealring. Wir werden in der Tat die endlich erzeugten Moduln u ber Hauptidealringen klassizieren. Z-Moduln sind aber gerade die abelschen Gruppen. Als Beiprodukt erhalten wir so auch eine Klassikation der endlichen abelschen Gruppen.

202

Kapitel 14

Ringe und Moduln


14.1 Kommutative Ringe und K Algebren: Setting the Stage

Wir wissen schon, was ein Ring, bzw. was eine K -Algebra ist (K ein K orper). Im folgenden sei R ein kommutativer Ring mit Einselement 1 1R , bzw. eine K -Algebra f ur einen K orper K . Ein Unterring von R ist eine nichtleere Teilmenge, die abgeschlossen ist bzgl. Addition, Multiplikation und Bildung additiver Inverser.

Einselement wie R haben, sie m ussen nicht einmal ein Einselement besitzen. Beispiele:
0 0 R M22 , R , dann ist S 0 0 0 1 0 1 0 1R . R, aber 1S 0 0 0 1 2Z ist Unterring von Z, besitzt aber kein Einselement.

S R. Dann ist S Unterring von R genau dann, wenn gilt: ur alle r, s S (d. h. S, ist abelsche Untergruppe von R, ), 1. r s S f ur alle r, s S . 2. rs S f Ist 1R S , so ist 1R 1S das Einselement von S . Unterringe m ussen nicht notwendigerweise dasselbe
14.1-1 Denition: Sei

M22

R ein Unterring von

14.1-2 Denition: Seien S, R Ringe, f : R falls gilt: 1. f a b 2. f ab f af b f ur alle a, b R. f a f b f ur alle a, b R,

S Abbildung. Dann heit f (Ring-)Homomorphismus,

alt das Einselement. Die Menge ker f Ist f 1R 1S , so sagt man f erh im f f r r R S Bild von f .

r R f r

0 heit Kern,

Epimorphismen sind surjektive, Monomorphismen injektive und Isomorphismen bijektive Homomorphismen. Ist f : R S ein Isomorphismus, so auch f 1 : S R. Wir schreiben dann R S und sagen R und S sind isomorph. Isomorph sein ist eine Aquivalenzrelation auf der Klasse der kommutativen Ringe mit Einselement, da Isomorphismen die Eins erhalten und die Komposition von Homomorphismen ein Homomorphismus ist. 203

14.1-3 Lemma: Sei f : R

S Ringhomomorphismus.

1. ker f ist Unterring von R. 3. Sei r ker f und x R. Dann ist rx 2. im f ist Unterring von S . xr

ker f .

Man kann Lemma 14.1-3 so interpretieren: Nicht jeder Unterring von R kommt als Kern eines Ringhomomorphismus vor, sondern nur solche Unterringe, die die Zusatzbedingung 3. erf ullen. Daher bekommen solche Unterringe einen speziellen Namen: 14.1-4 Denition: Ein Unterring S von R heit Ideal (von R), falls rs Wir schreiben dann S R. Also: S ist Ideal

S gilt f ur alle s S, r R. R mit s s1

 (S und f ur alle s1 , s2 , s S, r R sind s1 s2 S und sr S ).


1R .

14.1-5 Problem: Sei S R. Sei s S und sei s invertierbar, d.h. es existiert s1 Dann ist S R. Zeigen Sie das!

14.1-6 Lemma: Sei I R, dann ist I bzgl. der Addition insbesondere eine abelsche Untergruppe der additiven Gruppe von R. Also ist die Menge a I a R der Restklassen modulo I eine abelsche Gruppe bzgl. der Addition a I b I a b I mit Nullelement 0 I . Durch a I b I ab I f ur a, b R wird eine Multiplikation auf RI deniert, die RI zum Ring macht, dem Faktorring von R modulo I . RI hat das Einselement 1 I . Wir sehen: Um auf RI eine Multiplikation zu denieren brauchen wir wieder, dass I die Eigenschaft 3. von Lemma 14.1-3 erf ullt, also ein Ideal und nicht nur ein Unterring ist. 14.1-7 Lemma: Sei I

R. Dann ist die Abbildung RI : a :R

aI

ein Ringepimorphismus, die sogenannte kanonische Projektion von R auf RI . Die Abbildung hat Kern ker I . Daher kommt insbesondere jedes Ideal von R als Kern eines Ringhomomorphismus vor. Im folgenden Satz sammeln wir eine ganze Menge Fakten u ber Ringe und Ideale, deren Beweise jetzt Routine sein sollten. Sie u bertragen sich von den Beweisen entsprechender Fakten zu Vektorr aumen meist direkt und werden Ihnen daher als Ubungsaufgabe u berlassen. 14.1-8 Fakten: R, S sind Ringe. 1. 0 und R selbst sind Ideale von R. Alle anderen Ideale heien nichttrivial, bzw. echt. S Ringhomomorphismus. Dann ist f surjektiv genau dann, wenn im f 2. Sei f : R genau dann, wenn ker f 0 ist. 3. Der Durchschnitt einer Menge von Idealen von R ist ein Ideal von R. 4. Sei S und injektiv

R. Dann ist das von A erzeugte Ideal A

AIdeal

I R A I

I das kleinste Ideal von

R, das A als Teilmenge enth alt und es gilt:

a A

ra a ra

R fast alle 0

204

S Ringhomomorphismus und sei I R mit I ker f . Dann gibt 6. (1. Isomorphiesatz) Sei f : R : RI im f es einen eindeutig bestimmten Ringhomomorphismus f S mit f f , im f S und ker f ker f I , wobei : R RI die nat urliche Projektion a a I a R bezeichnet; d. h. wir haben das folgende kommutative Diagramm: R @ @ R r I D. h. es gilt f f r f ur alle r
f

5. Seien I, J R. Dann ist I J a b a I, b J ein Ideal von R, die Summe der Ideale I und J . Es gilt I J I J ist das eindeutig bestimmte kleinste Ideal von R, das sowohl I also auch J enth alt.

RI

- S  !f

und I J I 7. (2. Isomorphiesatz) Seien I, J d. h. Faktoren entlang paralleler Seiten im folgenden Diagramm sind isomorph: R I J

R. Insbesondere gilt R ker f R. Dann ist I J J I I J

im f (Ringisomorphismus). J I J,

@ @ @ J

@ @ @ I

0
8. (3. Isomorphiesatz) Seien I, J

R, I

J . Dann ist J I

RI und RI J I

R J .

14.1-9 Problem: Zeigen Sie: Sei I (echtes) Ideal von R ist, d.h. wenn I

orper, wenn I ein maximales R. Dann ist RI genau dann ein K R ist und aus I J R folgt, dass J R ist.

14.1-10 Denition: Ein Ideal I von R heit endlich erzeugt , falls es eine endliche Teilmenge S von R gibt mit S I . S heit dann endliches Erzeugendensystem von I . Besteht S aus genau einem Element S , so heit I Hauptideal . In diesem Fall ist I sR sr r R. Ein Ring R in dem alle Ideale endlich erzeugt sind, heit noethersch . Emmy Noether (1882-1935) war eine deutsche Mathematikerin und Physikerin. Sie gilt als Begr underin der modernen Algebra. 1903 wurden Frauen erstmals an bayrischen Universit aten zum Studium zugelassen. Emmy Noether schrieb sich in Erlangen ein und promovierte 1907 in Mathematik bei Paul Gordon. 1909 wurde sie von Felix Klein und David Hilbert nach G ottingen gerufen, dem damaligen Nabel der mathematischen Welt. Da die Habilitation von Frauen an preuischen Universit aten durch einen

205

Erlass von 1908 untersagt war, wurde ihr 1917 die Habilitation (beantragt 1915 durch die mathematischnaturwissenschaftliche Abteilung) versagt, trotz Intervention von Klein und Hilbert. So musste sie ihre Vorlesungen im Namen Hilberts ank undigen, als dessen Assistentin sie fungierte. Erst nach dem 1. Weltkrieg, im Jahr 1919, konnte Emmy Noether habilitieren. Dennoch bekam sie erst 1922 eine auerordentliche Professur und 1923 ihren ersten bezahlten Lehrauftrag. Als J udin wurde Emmy Noether 1933 die Lehrerlaubnis entzogen und sie musste in die USA emigrieren. Sie erhielt eine Anstellung als Gastprofessorin am Womens College Bryn Mawr in Pennsylvania und hielt Vorlesungen in Princeton. Sie starb an Komplikationen einer Operation in Pennsylvania am 14.4.1935. aquivalent: 14.1-11 Satz: Sei R ein Ring. Dann sind die folgenden Bedingungen 1. R ist noethersch, d.h. jedes Ideal von R ist endlich erzeugt. 2. Jede aufsteigende Kette von Idealen von R wird station ar. (eine aufsteigende Kette ist eine Folge I2 I3 . . . von Idealen, sie wird station ar, wenn es ein n N gibt, sodass Ik In ist f ur I1 alle k n) 3. Jede nichtleere Menge von Idealen von R besitzt maximale Elemente (bzgl. der Inklusion von Idealen). Beispiele von Noetherschen Ringen sind Polynomringe K x1 , . . . xn in Unbestimmten x1 , . . . , xn (K K orper) und epimorphe Bilder solcher Ringe. In der Tat sind K -Algebren, die als Ringe noethersch sind, immer epimorphe Bilder solcher Polynomringe (ohne Beweis). Wir sind im folgenden haupts achlich an speziellen Noetherschen Ringen interessiert, bei denen nicht nur alle Ideale endlich erzeugt, sondern von einem Element erzeugt sind. Zun achst m ussen wir uns noch kurz klar machen, dass der Ubergang von Ringen zu K -Algebren nichts wesentlich Neues bringt. orper. 14.1-12 Beobachtung: Sei R jetzt eine K -Algebra, K ein K 1. Durch k k 1R wird ein Ringhomomorphismus von K nach R deniert, der 1K auf 1R abbildet. Insbesondere ist dieser Homomorphismus nicht die Nullabbildung und daher injektiv, da K keine nichttrivialen Ideale besitzt (warum?) und daher der Kern dieses Homomorphimus das Nullideal sein muss. Also k onnen wir K als Unterring von R betrachten. 2. Jedes Ideal von R ist auch abgeschlossen gegen uber skalarer Multiplikation mit Elementen von K . 3. Jedes Ideal von R ist automatisch ein K -Vektorraum unter Multiplikation mit Elementen von K K 1R R . 4. Wir brauchen nicht zwischen Ringidealen und Algebraidealen zu unterscheiden. Im Folgenden ist daher R kommutativer Ring oder kommutative K -Algebra mit Einselement. 14.1-13 Denition/Lemma: Seien I, J R. Das Produkt I J ist das Ideal von R, das von der Menge a b a I, b J erzeugt wird. Es gilt: I J I J . 14.1-14 Denition/Lemma: Ein Element a R heit invertierbar (oder Einheit), falls es b R gibt 1. Dieses b ist dann eindeutig bestimmt, selbst invertierbar und wird mit b a1 bezeichnet. mit ab Die Menge U R der invertierbaren Elemente von R bildet unter der Multiplikation von R eine Gruppe, die Einheitengruppe von R. 14.1-15 Problem: Bestimmen sie U Z und U K x (K ein K orper). Zum Schluss dieses Abschnitts wollen wir uns noch kurz mit Polynomringen besch aftigen.

206

14.1-16 Denition: Der Polynomring Rx (R kommutativer Ring mit Eins) besteht aus formalen
n

Summen
i 0

i xi (n

N), wobei x Unbestimmte ist und die i R sind f ur alle i N. Ist k


k , so heit k der Grad degpx von px
n i 1

0,

aber m

0 f ur alle m

i xi . Die Addition und

Multiplikation zweier Polynome wird wie immer deniert (vgl. Denition 4.1-6), ebenso die skalare Multiplikation von Polynomen mit Skalaren R, nur dass jetzt als Skalare eben Ringelemente und nicht nur K orperelemente zugelassen werden. (Beachte, dass dann nicht mehr notwendigerweise deg pxq x deg px deg q x gilt.) Der Polynomring Rx1 , . . . , xn in den Unbestimmten x1 , . . . , xn wird dann induktiv als Rx1 , . . . , xn deniert. Er besteht aus formalen Summen

Rx1 , . . . , xn1 xn
in 1 i1 ,...,in xi 1 . . . xn

i1 ,...,in Nn

ur fast alle Multiindizes i mit i1 ,...,in R gleich 0 f mit i i1 , . . . , in Nn heien Monome .

i1 , . . . , in Nn . Terme der Form xi

in 1 xi 1 . . . xn

14.1-17 Satz: Sei K ein K orper und sei K x1 , . . . , xn der Polynomring uber K in den Unbestimmten x1 , . . . , xn . Dann hat K x1 , . . . , xn folgende universelle Eigenschaft: Es gibt eine Abbildung : 1, . . . , n xi . K x1 , . . . , xn , n amlich die Abbildung gegeben durch i

R eine Abbildung, R kommutative K -Algebra mit Einselement. Dann gibt es Ist f : 1, . . . , n : K x1 , . . . , xn xi genau einen K -Algebrahomomorphismus f R mit f f i f u r i 1 , . . . , n, d. h. das folgende Diagramm kommutiert:

1, . . . , n

K x1 , . . . , xn H HH !f f HH ? j H R
-

ahlen und die Abbildung xi (Mit anderen Worten: Man kann si , . . . , sn R frei w K -Algebrahomomorphismus i xi i si
i i

si zu einem

fortsetzen.)

14.2

Hauptidealringe (HIR)
0. Besitzt

R ist kommutativer Ring oder K -Algebra (K K orper) mit Eins. 14.2-1 Denition: Ein Element a R heit Nullteiler , falls es ein 0 b R gibt mit ab R auer 0 keinen Nullteiler, so heit R Integrit atsbereich oder einfach nullteilerfrei .

207

14.2-2 Beispiel: Z und K x (K K orper) sind Integrit atsbereiche. In Z6Z ist 2 Z Nullteiler, da 3, 2 6Z und damit 2 6Z, 3 6Z 0 6Z, aber 2 6Z3 6Z 6 6Z 0 6Z gilt. 14.2-3 Denition/Lemma: Sei R Integrit atsbereich. Auf der Menge wir eine Aquivalenzrelation durch a, b c, d  ad bc. Die Aquivalenzklasse von a, b, a, b R, b 0 wird mit R, b, d 0 eine Addition und eine Multiplikation durch: a b und Damit wird K Die Abbildung c d
a b

a, b R R b

0 denieren

bezeichnet. Wir denieren f ur a, b, c, d

ad bc bd

a b a, b R, b

a c ac . b d bd 0 ein K orper, der Quotientenk orper QR von R. R K:r

r 1 ist injektiver Ringhomomorphismus, sodass wir R als Unterring des K orpers K k onnen.

QR betrachten

atsbereich mit Quotientenk orper K , sei L ein K orper und sei f : R 14.2-4 Problem: Sei R Integrit ein injektiver Ringhomomorphismus. Dann wird durch : K f L: a b f a f b

a, b R, b

ein K orperhomomorphismus deniert, der nicht die Nullabbildung ist und daher injektiv ist. Mit anderen Worten, die Abbildung f l asst sich zu einer K orperabbildung von K nach L fortsetzen und wir k onnen K L identizieren). L als K orpererweiterung von K betrachten (indem wir K und f 14.2-5 Problem: Sei a R. Dann ist das Hauptideal aR eine Einheit) ist.

R genau dann, wenn a U R (also

14.2-6 Denition: Ein Integrit atsbereich R heit Hauptidealring , falls jedes Ideal von R ein Hauptideal ist. Bezeichnung: HIR oder PID(principal ideal domain). 14.2-7 Bemerkung: Die Bezeichnung ist im Deutschen etwas inkonsistent. Nat urlich kann man auch kommutative Ringe mit Eins betrachten, f ur die jedes Ideal ein Hauptideal ist. Eigentlich m ussten konsequenterweise solche Ringe R Hauptidealringe heien. Es hat sich aber bl oderweise eingeb urgert, zus atzlich zu fordern, dass R nullteilerfrei, d.h. ein Integrit atsbereich ist. Im Englischen heien Integrit atsbereiche domain, Hauptideale principal ideals und Hauptidealringe principal ideal domains. Gegeben sei ein nullteilerfreier Ring R. Wie l asst sich nun u ufen, dass R ein HIR ist? Dies ist sicher berpr keine einfache Aufgabe. Die n achste Denition stellt, wie wir sehen werden, eine Methode zum Aunden von HIRs zur Verf ugung.

208

14.2-8 Denition Euklidsche Ringe: Ein Integrit atsbereich R heit Euklidischer Ring , falls es eine Abbildung ( Gradfunktion) deg : R N0 1 gibt, sodass gilt: 1. F ur alle r R mit r 0 gilt deg0 degr, 0 gibt es q, r 2. F ur f, g R mit g Rest=Euklidischer Algorithmus).

R mit degr

degg , sodass f

q g r ist (Teilen mit

Beispiele: 1. Z, mit deg z z.

2. K x, mit degpx

Grad des Polynoms px

f ur px f ur px

0, 0.

14.2-9 Satz: Euklidische Ringe sind Hauptidealringe. Bemerkung: Die Umkehrung gilt nicht , d. h. es gibt Hauptidealringe, die nicht euklidisch sind! 14.2-10 Korollar: Z und K x (K K orper) sind HIRs. atsbereich R spiegelt Enthaltensein von Hauptidealen 14.2-11 Beobachtung: In einem Integrit pr azise (aber invers) die Teilbarkeitsrelation wieder, d. h.: ur a ist Teiler von b, d.h. c R : ac b). Sind a, b R, so ist a b  bR aR (a b steht f 14.2-12 Denition: Sei R Integrit atsbereich und seien a, b R. Dann heien a und b assoziiert genau dann, wenn es eine Einheit u U R gibt mit a bu. 14.2-13 Problem: Sei R kommutativer Ring mit Eins: 1. Assoziiert sein ist eine Aquivalenzrelation. 2. a, b R sind assoziiert  aR bR

3. a, b R sind assoziiert

 a b und b a

Weitere Teilereigenschaften u bersetzen sich wie folgt in Hauptidealeigenschaften: atsbereich und seien a, b R. 14.2-14 Problem: Sei R Integrit i) c a und c b oter gemeinsamer Teiler von a und b, wenn gilt: 1. c R heit gr ii) Ist d R mit d a und d b, so ist d c. Der gr ote gemeinsame Teiler zweier Elemente ist, falls er existiert, bis auf Assoziiertheit eindeutig bestimmt. 2. c R heit kleinstes gemeinsames Vielfaches von a und b, wenn gilt: ii) Ist d R mit a d und b d, so ist c d. i) a c und b c Bezeichnung: ggTa, b.

209

Das kleinste gemeinsame Vielfache zweier Elemente ist, falls es existiert, bis auf Assoziiertheit eindeutig bestimmt. 3. Sei R ein HIR und a, b R. Dann existieren ggTa, b und kgVa, b und es gilt: (a) aR bR bR ggTa, bR. abR. R (b) aR So: kgVa, bR. Bezeichnung: kgVa, b.

(c) aR bR

ggTa, bR bR @ @ @ @ kgVa, bR @ @ @ @ aR

abR

0
Beachte: Teilbarkeit ist eine Ordnungsrelation auf der Menge der Assoziiertenklassen von R, nicht auf R selbst. Die Primfaktorzerlegung ganzer Zahlen sollte Ihnen aus der Schule bekannt sein: Primzahlen sind ganze Zahlen, die bis aufs Vorzeichen auer sich selbst nur 1 als Teiler haben und jede ganze Zahl kann bis auf Vorzeichen und Reihenfolge eindeutig als Produkt von Primzahlen geschrieben werden. Primzahlen haben noch eine andere sch one Eigenschaft: Teilt eine Primzahl p ein Produkt a b ganzer Zahlen a und b, so teilt p dann a oder b (oder beide). Wir wollen als n achstes zeigen, dass eine solche eindeutige Zerlegung von Elementen in Primfaktoren in beliebigen Hauptidealringen existiert. Dazu ist zun achst zu kl aren, was Primelemente sind. In den ganzen Zahlen gibt es, wie wir oben gesehen haben, zwei Charakterisierungen f ur Primelemente. Dies ist im Allgemeinen nicht so, wir werden sehen, dass f ur allgemeine Integrit atsbereiche beide Denitionen zwei Paar Stiefel sind. Dann werden wir aber zeigen, dass f ur HIRs beide Denitionen aquivalent sind, d. h. zu derselben Sorte von Elementen f uhren. Andererseits haben wir gesehen, dass Teilbarkeitseigenschaften von Elementen von R durch Idealeigenschaften der Hauptideale R ausgedr uckt werden k onnen. Wir beginnen auf der Idealseite und denieren Primideale. 210

14.2-15 Denition: Sei P R, R kommutativer Ring mit 1. Dann heit P Primideal , falls gilt: Sind x, y R mit xy P , so ist x P oder y P . (Wir nutzen also die zweite Eigenschaft von Primzahlen in Z zur Verallgemeinerung: xy oder p y .) 14.2-16 Satz: 1. R ist Integrit atsbereich 2.

pZ  p xy

px

 0 ist Primideal in R. atsbereich. Sei P R. Dann ist P Primideal  RP ist Integrit

14.2-17 Korollar: Sei M maximales Ideal von R. Dann ist M Primideal. Nun kommt die Elementversion: 14.2-18 Denition: Sei R kommutativer Ring mit Eins. 1. 0 a R heit irreduzibel , falls a U R ist und gilt: Ist a xy mit x, y R, so ist x U R oder y U R ( a und y im ersten und a und x im zweiten Fall sind dann assoziiert). 2. 0 a R heit Primelement , falls aR Primideal ist, d.h. ist a xy so folgt a x oder a y . Nun kommt die Ent auschung: Die beiden Denitionen sind im allgemeinen nicht aquivalent. F ur Integrit atsbereiche gilt aber wenigstens: 14.2-19 Satz: Sei R Integrit atsbereich und sei p R Primelement. Dann ist p irreduzibel. Wir werden aber sehen, dass in HIRs irreduzible Elemente auch immer Primelemente sind, d.h. dass wir f ur HIRs (wie z.B. Z oder K x nach 14.2-10 ) nicht zwischen Prim- und irreduziblen Elementen zu unterscheiden brauchen. Dies gilt in der Tat f ur eine gr oere Klasse von Ringen, zu denen unter anderem auch Polynomringe K x1 , . . . , xn geh oren (die f ur n 1 keine HIRs sind. Dieser Satz, der Satz von Gauss , wird in der Algebra-Vorlesung eine groe Rolle spielen und dort bewiesen werden). Diese Ringe sind Integrit atsbereiche, in denen sich jedes Element eindeutig (bis auf Reihenfolge und Assoziiertheit) in irreduzible Elemente zerlegen l asst. Hier ist die Denition: 14.2-20 Denition: Sei R ein kommutativer Ring mit Eins und sei 0 Zerlegung in irreduzible Faktoren , falls sich a als a 1 . . . r a

R. Dann besitzt a eine

ur r 0 ist a U R). schreiben l asst mit U R und 1 , . . . , r R irreduzible Elemente, r N0 (f Wir sagen a besitzt eine eindeutige Zerlegung in irreduzible Faktoren , falls zus atzlich gilt: . . . s mit s N0 , U R und R irreduzibel eine weitere solche Zerlegung, so ist s r Ist a 1 i (1 i r) assoziiert, d.h. es gibt 1 , . . . , r U R und nach geeigneter Umnummerierung sind i und i mit i i i , f ur i 1, . . . , r. atsbereich heit faktoriell (oder UFD=unique factorisation domain), 14.2-21 Denition: Ein Integrit falls jedes Element ungleich 0 von R eine eindeutige Zerlegung in irreduzible Faktoren besitzt. 14.2-22 Satz: Sei R faktoriell und sei p R irreduzibel. Dann ist p Primelement. F ur UFDs stimmen also irreduzible und Primelemente u berein.

211

14.2-23 Satz: Sei R Integrit atsbereich. Dann ist R UFD genau dann, wenn die beiden folgenden Eigenschaften gelten: 1. Jede aufsteigende Kette von Hauptidealen wird station ar, 2. Jedes irreduzible Element von R ist Primelement. 14.2-24 Satz: Sei R HIR. Dann ist jedes irreduzible Element von R Primelement. 14.2-25 Satz: HIRs sind UFDs. 14.2-26 Bemerkung: Wir haben nun verschiedene Klassen von Ringen betrachtet, die ineinander enthalten sind: Euklidische Ringe HIRs UFDs. Beide Inklusionen sind echt. 14.2-27 Satz: Sei R HIR. Dann ist jedes Primideal P K orper.

0 von R maximal und daher ist RP

ein

Im 14.2-17 hatten wir gesehen, dass maximale Ideale Primideale sind. F ur einen HIR sind die Primideale also genau die maximalen Ideale und das 0-Ideal.

14.3

Moduln

Zun achst sei A ein beliebiger, nicht notwendigerweise kommutativer Ring mit Einselement oder eine K Algebra f ur einen K orper K . Was f ur K orper Vektorr aume sind, sind f ur Ringe (Algebren) Moduln. Hier ist die Denition. 14.3-1 Denition: Ein A-Linksmodul ist eine abelsche Gruppe M, zusammen mit einer aueren bin aren Operation A M M : a, m am, sodass gilt (vergleiche Denition 4.1-1, V5)-V8)): M1) 1A m M2) M3) M4)

m M . abm abm a, b A, m M . a bm am bm a, b A, m M . am1 m2 am1 am2 a A, m1 , m2 M .


m

Ein A-Rechtsmodul wird analog deniert, nur operiert A dann von rechts auf M , d.h. die a are uere bin Operation ist als M A M : m, a ma deniert.

212

14.3-2 Probleme: 1. Ist R kommutativer Ring mit Eins und ist M ein R-Linksmodul, so wird M zum R-Rechtsmodul, wenn man die Rechtsoperation von R auf M durch m r rm r R, m M deniert. Warum funktioniert dies nicht bei nicht-kommutativen Ringen? 2. Sei A eine K -Algebra mit Einselement und sei M ein A-Linksmodul. Dann wird M zum K Vektorraum durch m 1A m  K, m M . Unter einem A-Modul verstehen wir im folgenden immer einen A-Linksmodul. Alles, was wir u ber ALinksmoduln beweisen, hat nat urlich eine Rechtsvariante, die analog bewiesen wird. Da wir uns in K urze wieder auf kommutative Ringe (n amlich HIRs) konzentrieren werden, ist der Unterschied so oder so unerheblich. Nat urlich kann man Moduln auch f ur Ringe ohne Einselement denieren bzw. man kann Moduln betrachten, auf denen das Einselement 1A nicht notwendigerweise wie die Eins operiert, d.h. das Axiom M1 ur alle m M , fordert man also M1, so spricht man auch entf allt. Will man betonen, dass 1A m m ist f von einem unitalen Modul. Wir betrachten hier nur unitale Moduln, d.h. ein A-Modul ist bei uns immer unitaler A-Linksmodul. 14.3-3 Beispiele: 1. Sei M abelsche Gruppe mit bin arer Operation

. Dann wird M zum Z-Modul durch f ur z 0, m ...m


z mal

zm

m ... m

zmal

f ur f ur

z z

0, 0.

2. Sei M abelsche Gruppe. Dann ist E EndM, f : M M f ist Gruppenhomomorphismus ein Ring mit 1 durch f g m f m g m (f ur f, g E, m M ) und f g m f g m. Das Einselement ist die identische Abbildung 1E : M M : m m und das 0-Element die M :m 0. M wird zum E -Modul durch f m f m f ur f E und 0-Abbildung 0E : M m M.

Umgekehrt ist jeder Z-Modul eine abelsche Gruppe (per denitionem). Macht man diese wieder wie oben zum Z-Modul, so erh alt man die alte Z-Modulstruktur zur uck (Warum?). Daher sind die Z-Moduln genau die abelschen Gruppen.

3. Sei V ein K -Vektorraum, E EndK V . Dann wird V zum E -Modul durch f v f v f ur f E und v V . Wir haben dann: EndK V ist im allgemeinen echter Unterring (mit derselben Eins) von EndV, . F ur K und f EndV, sei f deniert durch f v f v V . Dann ist f EndV, und EndK V ist Unteralgebra von EndV, . 4. Sei V ein K -Vektorraum, K ein K orper und sei f wir denieren (vgl. Problem 13.7-2) q tv q f v ,

EndK V . Dann wird V

ein K t-Modul, indem

f ur q t K t, v V,

wobei q f der in 13.7-1 denierte Endomorphismus von V ist. Dieser K t-Modul wird im folgenden mit Vf bezeichnet, um zu betonen, dass wir die durch f gegebene Modulstruktur von K t auf V meinen.

213

14.3-4 Probleme: Sei A Ring mit Eins, M ein A-Modul. 1. Sei a A. Deniere fa : M M :m am. Dann ist fa EndM, und F : A EndM, : a fa ist ein Ringhomomorphismus, der die Eins erh alt. Ist zus atzlich A eine K -Algebra, dann ist fa EndK M und F ist K -Algebrahomomorphismus. EndM, ein Ringhomomorphismus, der die Eins erh alt. Dann wird M 2. Sei umgekehrt F : A ur a A, m M . (F ur Algebren: F : A EndK M ) zum A-Modul durch am F am f

3. Die Schritte in 1.) und 2.) sind invers zueinander, d.h. startet man mit einer abelschen Gruppe M und einem Homomorphismus F wie in 2.) und macht M zum A-Modul und betrachtet man den zugeh origen Homomorphismus von A in EndM, , gem a 1.), so erh alt man F zur uck. Startet man mit einer A-Modulstruktur auf M , so stimmt diese mit der u alt, wenn man berein, die man erh gem a 2.) eine Modulstruktur zum dazugeh origen Homomorphismus F deniert. ur K -Algebren A) heien Bezeichnung: Homomorphismen von A in EndM, (bzw. in EndK M f Darstellungen oder genauer lineare Darstellungen von A; F in 1.) heit die zum A-Modul M geh orende Darstellung von A. 14.3-4 sagt, dass Darstellungen und Moduln v ollig aquivalente Konzepte sind. 14.3-5 Beispiele: 1. Der Nullmodul 0 ist A-Modul mit Operation a 0 2. A wird zum A-Linksmodul A A, wobei a A auf A durch normale Linksmultiplikation operiert (Analog Rechtsmodul). Dieser Modul heit trivialer bzw. regul arer Modul. 0 f ur alle a A.

3. Jedes Linksideal und daher auch jedes Ideal von A ist A-Modul. N heit 14.3-6 Denition: Sei A Ring mit 1 und seien M und N A-Moduln. Eine Abbildung f : M (A-Modul-) Homomorphismus, falls f ein Homomorphismus der zugrunde liegenden abelschen Gruppe ist, der zus atzlich die A-Operation respektiert, d. h. f ur den gilt: Die Menge ker f m M f m M Bild von f . Injektive Homomorphismen heien Mono-, surjektive Epi- und bijektive Isomorphismen. Zwei A-Moduln M , N heien isomorph, und wir schreiben M N , falls es einen Isomorphismus f : M N gibt. Wie f ur Ringe und Ideale in 14.1-8 sammeln wir jetzt die basis facts, die f ur A-Moduln gelten, in einer Zusammenfassung. Ihre Beweise sind wieder Routine und werden als Ubung u berlassen. 14.3-7 Fakten: Sei A ein Ring mit Eins, M und N seien A-Moduln. 1. Eine Teilmenge U von M heit Untermodul von M , falls U, abelsche Untergruppe von M, ist und a u U gilt f ur alle a A und u U . Wir schreiben dann U M . Die AUntermoduln von A A sind genau die Linksideale von A. 2. Der Durchschnitt einer beliebigen Menge von Untermoduln von M ist Untermodul von M . Dies ist der eindeutig bestimmte gr ote Untermodul von M , der in allen Untermoduln der vorgegebenen Menge enthalten ist. 3. Sei S M . Der von S erzeugte Untermodul U f am

a A, m M. 0N heit Kern, im f f m m

af m

S ist deniert als A fast alle 0A

U . Er ist der eindeutig

U S

M U

bestimmte, kleinste Untermodul von M , der S als Teilmenge enth alt: Es gilt:

s S

as s as

214

4. Ist U

M f ur eine Indexmenge A und

A, so ist die Summe U

gentheoretischen Vereinigung

weise geordnet durch Inklusion, U V der gr ote Untermodul von M , der in U und V U, V enthalten ist, und U V der kleinste Untermodul von M , der U und V enth alt. Im Bild: M

alt, und ist als kleinste Untermodul von M , der alle Untermoduln U , A, als Teilmenge enth u u U fast alle 0 . Insbesondere ist in der Menge der Untermoduln von M , teilMenge
A

U erzeugte Untermodul von M . Er ist der eindeutig bestimmte

U der von der men-

U U @ @ @ U

@ @ @ V

0
5. Sei U M . Wir denieren eine Aquivalenzrelation mod U auf M durch : x y mod U  x y U , f ur x, y M . Die Aquivalenzklasse von x M ist dann die Nebenklasse x U x u u U . Auf der Menge M U x U x M (sprich M modulo U ) der Aquivalenzklassen von M x y U und eine auere modulo U denieren wir eine Addition durch x U y U Operation von A durch ax U ax U . Diese Operationen sind wohldeniert und machen M U zu einem A-Modul, dem Faktormodul M mod U mit Nullelement 0 U U und additivem Inversen m U m U f ur m M . Die Abbildung : M M U : m m U ist ein Epimorphismus, die sogenannte Projektion von M auf M U . 6. Sei f : M N ein A-Homomorphismus. Dann ist ker f N Isomorphismus, so ist f 1 : N
A mod

M und im f

N.

7. Ist f : M sein ist Aquivalenzrelation auf der Klasse

M ebenfalls einer. Die Relation isomorph der A-Moduln.

N eine A-lineare Abbildung und U M mit U ker f . Dann 8. (1. Isomorphiesatz:) Sei f : M : M U im f und ker f U ker f gibt es ein eindeutig bestimmtes f N mit im f M ker f , f f sodass f ur die Projektion : M M U gilt. Im Bild: M - N @  @ R @ !f M U
f

ist gegeben durch : f m U f m f ein A-Modulisomorphismus von M ker f auf im f . Wir haben Ist insbesondere ker f U , so ist f daher M ker f im f .

215

9. (2. Isomorphiesatz:) Seien U, V M . Dann ist U V V U U V U V . Also: Parallele Seiten der Raute in 4. sind isomorph. 10. (3. Isomorphiesatz:) Seien U, V M und U M . Dann ist V U

V und U

V U
M V .

M U und M U

V U

11. Ist A zus atzlich eine K -Algebra, so ist M auch ein K -Vektorraum durch m 1Am f ur K, m M . Untermoduln von M sind dabei automatisch K -Untervektorr aume und A-lineare Abbildungen zwischen A-Moduln sind automatisch K -linear.

S M mit S M . Dann heit S Erzeugendensystem von M und M heit endlich 12. Sei erzeugt, falls es eine endliche Menge S M gibt mit S M .

13. Seien Mi , i

I , eine Menge von Untermoduln von M


U eine eindeutige

mit Indexmenge I . Die Summe Mj

heit (interne) direkte Summe der Mi , falls Mi dann der Fall, wenn jedes u

i j I

0, besitzt. Ist Mi (i

Mi I ) eine Menge von A-Moduln, so ist die ( auere) direkte Summe iI xi iI xi Mi fast alle 0 mit Addition und A-Operation deniert durch xi iI yi iI xi yi iI axi iI axi iI f ur xi iI , yi iI Mi , d.h. xi , yi Mi fast alle 0. iI Mi zum A-Modul. Ist i I fest und x Mi , so wird durch x xj jI Mj Dies macht iI j I eine Einbettung von Mi in ur i Mj deniert, wobei xi x und xj 0M f j I gesetzt
i I j I

0 gilt f ur alle i I . Dies ist genau Darstellung u xi mit xi Mi , fast alle


i I

Mi

j das Bild dieser Einbettung, so ist wird. Bezeichne M fi : M i Ni A-Modulhomomorphismen, so wird durch

j I i I

j . Sind Mj interne direkte Summe der M fi :

i I

ein A-Modulhomomorphismus deniert, die direkte Summe der fi .

Mi

i I

Ni : xi iI

fixi iI

14. Ein A-Modul M heit frei, wenn er isomorph zu einer direkten Summe von Kopien des regul aren A-Moduls A A ist. 15. Eine Teilmenge S eines A-Moduls N heit linear unabh angig, falls es keine nichttriviale Darstellung as s 0, ax A fast alle 0, gibt, d.h. mindestens einer der Koezienten as ist verschieden
s S

von 0. Ein linear unabh angiges Erzeugendensystem von N heit Basis (bzw. A-Basis) von N . Wie f ur K -Vektorr aume sieht man leicht, dass S eine A-Basis von N ist, genau dann, wenn sich jedes as s, ax A fast alle 0 darstellen l asst. In Element von N eindeutig als A-Linearkombination diesem Fall ist N

s S

A s mit A s

as a A.

s S

14.3-8 Satz: Sei M ein A-Modul. Dann ist M frei genau dann, wenn M eine A-Basis besitzt. 14.3-9 Problem: Nun sollte es leicht sein, f ur eine Menge I den freien A-Modul mit Basis I zu konstruieren und seine universelle Eigenschaft zu bestimmen.

216

14.3-10 Bemerkung: Der Basissatz f ur Vektorr aume besagt, dass alle K -Vektorr aume (das sind genau die K -Moduln) f ur einen K orper K frei sind. Die Crux ist, dass dies nicht mehr f ur Ringe und ihre Moduln gilt. Dabei haben A-Moduln im allgemeinen keine A-Basis. Ist A eine K -Algebra, so ist ein A-Modul zugleich ein K -Vektorraum und als solcher muss er eine K -Basis besitzen. 14.3-11 Denition: Eine Folge von A-Moduln M1
1

M2

M3

...

i1

Mi

... im i ist. Eine exakte Folge

mit A-Modulhomomorphismen ai : Mi der Form 0

Mi1 heit exakt , falls ker i1 M

heit kurze exakte Folge (kurz: keF). Beachte: Es gibt genau einen A-Modulhomomorphismus 0 M und genau einen A-Modulhomomor0 (n amlich jeweils die Nullabbildung). Das Bild des Homomorphismus 0 M ist phismus E also 0, d. h. das Bild dieser Abbildung ist gleich ker genau dann, wenn 0 ker ist, also wenn injektiv ist. Der Kern der Abbildung E 0 ist E , also ist der Kern dieser Abbildung gleich im genau dann, wenn E im ist, also surjektiv ist. Daher ist die Folge oben exakt genau dann, wenn ein Monomorphismus und ein Epimorphismus ist, und wenn ker im ist. Nach dem 1. Isomorphiesatz ist dann aber N im E . Ist M ein A-Modul, U M , so hat man immer eine keF

M U

0,

wobei die nat urliche Einbettung von U in M und die nat urliche Projektion von M auf M U ist. 14.3-12 Satz: Seien M und N A-Moduln und sei f : M N ein A-Epimorphismus. Sei S M ein Erzeugendensystem f ur M . Dann wird N von f S erzeugt. So sind insbesondere epimorphe Bilder von endlich erzeugten A-Moduln endlich erzeugt. 14.3-13 Satz: Sei 0 so auch M . N

0 keF von A-Moduln. Sind N und E endlich erzeugt, 0 keF von A-Moduln und sei E freier A-Modul. im U ist.

14.3-14 Satz: Sei 0 N Dann gibt es ein U M mit U

M E E , sodass M

14.3-15 Bemerkung: Insbesondere ist dann U : U E ein Isomorphismus. Ist : E U sein Inverses, so ist idE . Der Beweis von 14.3-14 zeigt umgekehrt: ndet man einen AU mit idE , so erf ullt U im Satz 14.3-14. Man sagt in diesem Modulhomomorphismus : E Fall die keF 0 allt. N M E 0 zerf 14.3-16 Problem: Sei M ein A-Modul mit Erzeugendensystem mi i I . Sei F der freie A-Modul ort, mit ei . Zeigen Sie, dass es genau einen u ber I . Bezeichne das Basiselement von F , das zu i I geh A-Modulepimorphismus f : F M gibt mit f ei mi . Da jeder A-Modul ein Erzeugendensystem besitzt (z.B. bestehend aus allen Modulelementen), zeigt dies, dass jeder A-Modul epimorphes Bild eines freien A-Moduls ist.

217

14.3-17 Satz: Sei R kommutativer, noetherscher Ring mit Einselement und sei M ein freier R-Modul. Seien m A und v B Basen von M mit Indexmenge A, bzw. B . Dann ist A B. 14.3-18 Denition: Sei R kommutativer, noetherscher Ring, M ein freier R-Modul. Dann ist der Rang rgM deniert als Kardinalit at einer Basis von M . Dieser ist unabh angig von der Wahl der Basis. ur Ringe A, nicht notwendigerweise 14.3-19 Bemerkung: Der Beweis von Satz 14.3-17 funktioniert f kommutativ und nicht notwendigerweise mit Einselement, solange A maximale Ideale besitzt (im nichtkommutativen Fall ist dann Amax. Ideal ein Schiefk orper). Hat A ein Einselement, so garantiert das Zornsche Lemma die Existenz von maximalen Idealen, d.h. auch hier ist der Rang eines freien A-Moduls wohldeniert. Da HIRs noethersch sind, gilt Satz 14.3-17 f ur diese und der Beweis funktioniert auch ohne Zornsches Lemma. 14.3-20 Problem: Sei A beliebiger Ring, I 1. IM ist A-Untermodul von M . 2. Die Menge J in A. 3. I

A, und sei M ein A-Modul. Zeigen Sie:

a A a m

m M ist ein Ideal von A, der Annullator annA M von M


am, f ur a A,

5. M IM ist AI -Modul mit A-Operation gegeben durch

4. Sei L A und sei L m M.

annA M IM .

annA M . Dann wird M zum AL-Modul durch a Lm

a I m IM

am IM.

14.3-21 Satz: Sei R kommutativer, noetherscher Ring und seien M, N freie R-Moduln mit rgM rgN . Dann sind M und N isomorph. F ur jede Kardinalit at gibt es daher einen bis auf Isomorphie eindeutigen freien R-Modul F vom Rang , n amlich die direkte Summe von vielen Kopien von R R.

218

Kapitel 15

Moduln u ber Hauptidealringen


In diesem Kapitel wollen wir nun die endlich erzeugten Moduln u ber Hauptidealringen klassizieren. Sei also im folgenden R, wenn nicht anders vermerkt, ein HIR. Im letzten Kapitel werden wir dies dann auf zwei spezielle Ringe anwenden. Zum einen, f ur R Z, erhalten wir auf diese Weise eine vollst andige Klassikation der endlich erzeugten Moduln und damit auch insbesondere der endlich erzeugten abelaher schen Gruppen. Zum anderen, f ur den Fall R K x, werden wir die speziellen K t-Moduln Vf n untersuchen, die f ur einen K -Vektorraum V mit einem festen f EndK V durch pt v pf v in 13.7 vorgestellt wurden. Dies f uhrt dann auf die kanonisch rationale Form der Matrix f ur f durch Wahl Vf . einer geeigneten K -Basis von V Eine Reihe von Denitionen und von Ergebnissen in den folgenden Abschnitten machen auch Sinn f ur bzw. gelten f ur eine gr oere Klasse von kommutativen Ringen.

15.1

Torsionsmoduln

15.1-1 Denition: Sei R ein kommutativer Ring mit 1 und sei M ein R-Modul, m M . Der Annullator 0. Ahnlich, f ur eine Teilmenge S von M ist annR S r von m in R ist annR m r R rm R rm 0 m S annR m.
m S

15.1-2 Lemma: Seien R, M, m, S wie in 15.1-1. Dann sind annR m und annR S Ideale von R. 15.1-3 Lemma: Seien R, M wie in 15.1-1 und sei M annR M

r R rm

k i 1

annR mi .

m1 , . . . , mk endlich erzeugt. Dann ist

atsbereich und M ein R-Modul. Ein Element m M heit Torsions15.1-4 Denition: Sei R Integrit element , wenn annR m 0 ist, d.h. wenn gilt rm 0 f ur ein 0 r R. Das Nullelement 0M von M ist nat urlich immer ein Torsionselement (da 0 1 R, 1 0M 0M ). Ist es das einzige Torsionselement, so heit M torsionsfrei .

219

15.1-5 Lemma: Sei R Integrit atsbereich, M ein R-Modul und sei T M M die Menge der Torsionselemente von M . Dann ist T M M eine Untermodul von M und heit der Torsionsuntermodul von M . Ist T M M , so heit M Torsionsmodul. 15.1-6 Beispiel: Z ist Z Z torsionsfrei und Zz Z 0 z Z ist (als abelsche Gruppe, d.h. Z-Modul) 1. F ur R Torsionsmodul, also T Zz Z Zz Z, da z x z Z zx z Z 0 z Z 0ZzZ . 2. R K t, V ein K -Vektorraum (K ein K orper), f zum K t-Modul (bezeichnet als Vf ) durch pt v

EndK V . Wie schon fr uher gesehen, wird V

Nach Satz von Caley-Hamilton 0 f ur alle v V , wobei f t das charakteristische Polynom von f bezeichnet, (man h atte auch das Minimalpolynom nehmen k onnen). Umgekehrt, nach Satz 13.4-9 und Denition 13.4-10 ist das Minimalpolynom f t K t das eindeutig bestimmte normierte Polynom kleinsten Grades, das ganz Vf annulliert, und daher ist annK t Vf K tf t und Vf ist Torsionsmodul. Es gilt: 15.1-7 Satz: Sei R Integrit atsbereich. 1. Ist M freier R-Modul, dann ist M torsionsfrei. 2. Ist M ein R-Modul, dann ist M T M torsionsfrei,d. h. T M T M

pf v v V. 13.1-9 ist f f 0, d. h. f tv

0.
T M . Sind insbesondere

3. Epimorphe Bilder von Torsionsmoduln sind Torsionsmoduln. 4. Sei M , A, eine Menge von R-Moduln. Dann ist T
A

die M Torsionsmoduln (torsionsfrei), dann auch ihre direkte Summe. 5. Untermoduln von Torsionsmoduln sind Torsionsmoduln. 6. Untermoduln von torsionsfreien Moduln sind torsionsfrei.

15.1-8 Denition/Lemma: Sei R kommutativer Ring mit Einselement und sei M ein R-Modul. Sei Rm ist, d. h. M besitzt ein Erzeugendensystem bestehend aus nur einem Element m M , sodass M m M . Dann heit M zyklischer R-Modul. In diesem Fall wird durch f:
RR

M :r

rm

ein R-Modul-Epimorphismus vom regul aren R-Modul R R auf M deniert. Insbesondere ist M isomorph zum Faktormodul R ker f mit ker f R. Umgekehrt ist I R, so ist RI zyklischer R-Modul erzeugt von der Nebenklasse 1 I von I auf R. 15.1-9 Lemma: Sei R Integrit atsbereich und 0 R frei mit Basis m . ist M R M Rm torsionsfreier, zyklischer Modul. Dann

15.1-10 Satz: Sei R Hauptidealring und sei F endlich erzeugter, freier R-Modul vom Rang n u ber R mit R-Basis B v1 , . . . , vn . Sei M F . Dann ist M freier R-Modul vom Rang k mit k n.

220

15.1-11 Korollar: Sei R ein HIR und M torsionsfreier, endlich erzeugter R-Modul mit Erzeugendensystem S der Kardinalit at S k . Dann ist M frei vom Rang n k . 15.1-12 Bemerkung: 1. F ur Hauptidealringe sind also die torsionsfreien, endlich erzeugten R-Moduln exakt die freien RModuln von endlichem Rang. Dies ist eine Spezialit at von HIRs, f ur sonstige Integrit atsbereiche ist dies im allgemeinen falsch. 2. Korollar 15.1-11 besagt nicht, dass Erzeugendensysteme freier R-Moduln (R ein HIR) vom endlichen Rang eine Basis enthalten. Zum Beispiel wird der freie Z-Modul Z Z von 2, 3 erzeugt (warum?), 2, 3 enth alt keine Basis, ist aber linear abh angig, denn 3 a 2 b 0 f ur a 2, b 3. Geht man wie im Beweis von 14.3-11 vor, so ndet man Z 2Z als Z-Modul (mit maximaler linear unabh angiger Teilmenge 2 von 2, 3 und S 2). Das Urbild unter l2 der Basis 2 1 von 2Z ist dann 1 und dies ist Basis von Z. 15.1-13 Satz: Sei R ein HIR und M ein endlich erzeugter R-Modul. Dann ist M U M ein freier R-Modul von endlichem Rang ist mit U M T M . T M U , wobei

Da freie R-Moduln f ur den Hauptidealring R bis auf Isomorphie vollst andig durch ihren Rang bestimmt sind, gen ugt es, endlich erzeugte R-Torsionsmoduln zu klassizieren, um eine Liste von Prototypen endlich erzeugter R-Moduln zu erstellen. Ist M A eine Liste aller nichtisomorphen endlich er zeugten Torsionsmoduln, so erh alt man eine Liste aller nichtisomorphen, endlich erzeugten R-Moduln als M,k A, k N0 mit M,k M R ... R. In den n achsten Abschnitten wollen wir so eine Liste M A konstruieren.
k-viele

15.2

Prim arkomponenten

R ist immer ein HIR und M endlich erzeugter R-Modul. 15.2-1 Denition: Sei p R. Dann ist Mp der Untermodul Mp Ist 0

m M p k m

k N .

p R Primelement, so heit Mp Prim arkomponente .

15.2-2 Beispiel: Sei V ein K -Vektorraum, dimK V , f EndK V . Wir betrachten den K tModul Vf aus Beispiel 15.1-6. Sei ein Eigenwert von f und p pt t . Mit M Vf ist also Mp Mf

v V pk f v 0 v V f k v 0 k N

kerf

V f

k N

der verallgemeinerte Eigenraum von f zum Eigenwert von f . Klar: pt t ist irreduzibel und daher Primelement von K t, (in der Tat: K tt K t

K ).

221

15.2-3 Lemma: Sind 0 Mp Mq direkt.

p, q

R mit ggTp, q

1, so ist Mp

Mq

0 und daher ist die Summe

15.2-4 Beispiel: Seien Vf , f und wie oben in Beispiel 15.2-2. Sei K ein weiterer Eigenwert von f . Dann ist (mit M Vf ) Mp Mq V f V f 0, wobei p t und q t gesetzt wird. Also ist die Summe V f V f direkt. (Lineare Polynome, d.h. Polynome vom Grad 1, sind immer irreduzibel und daher Primelemente in K t.) Erinnerung: (an Denition 15.1-1 und Lemma 15.1-2) Ist M ein R-Modul mit Erzeugendensystem S M , so ist annR M r R rm 0 m M annR s der Annullator von M in R und
s S

ur ein r annR M R. Ist R HIR, M ein R-Modul, so ist annR M rR f Wir wollen jetzt endlich erzeugte R-Torsionsmoduln untersuchen.

R.

15.2-5 Satz: Sei R ein HIR und M ein endlich erzeugter R-Torsionsmodul. Dann gilt: 1. Der Annullator annR M ist nichttrivial und wird von einem bis auf Einheiten eindeutig bestimmten r R erzeugt: annR M rR 0. Ein Erzeuger von annR M wird Ordnung von M genannt und mit r OM bezeichnet.

kn 1 2. Ist OM r und r pk 1 . . . pn die Primfaktorzerlegung von r nach 14.2-25 in paarweise nicht assoziierte Primelemente p1 , . . . , pn R, k1 , . . . , kn N, so zerlegt sich M in die direkte Summe

Mp1

...

Mpn 1 , . . . , n.

seiner (eindeutig bestimmten) Prim arkomponenten Mpi , i Der Beweis von Satz 15.2-5 zeigt auch: 15.2-6 Korollar: Sei M und r

kn 1 pk 1 . . . pn wie in Satz 15.2-5. Dann ist O Mpi

i pk i .

15.2-7 Beispiel: Sei K K orper, V ein K -Vektorraum der Dimension n Vf als K t-Modul wie in Beispiel 14.3-3 Teil 3 durch betrachten V

N und f EndK V . Wir

1 k f ur pt K t und v V . Sei f t eine Zerlegung des charakteristischen Polynoms f t K t in Linearfaktoren, wobei 1 , . . . , k die verschiedenen Eigenwerte von f sind. Dann ist n1 . . . nk n. Im Abschnitt 13.4 denierten wir das Ideal If pt K t pf 0 pt K t pf v 0 v V . Merken Sie was? Ja, sie haben recht, es gilt If annK t Vf und daher ist der Erzeuger f t, das Minimalpolynom von f , gerade die Ordnung von Vf : OVf f t. In Satz 13.4-17 sahen wir f t t1 m1 . . . tk mk mit mi ni f ur i 1, . . . , k . Die Linearfaktoren t i sind irreduzible Polynome und daher Primelemente in K t (Satz 14.2-22) und f t t 1 m1 . . . t k mk ist die Primfaktorzerlegung der Ordnung OVf f t von Vf . Was ist dann die Prim arkomponentenzerlegung? Sei p t i mit i 1, . . . , k fest und

pf v t 1 n . . . t k n

pt v

Vf p

v Vf pk v 0 k N v Vf t i k v 0 k N v Vf f k v 0 k N
i

Vf i ,

222

der verallgemeinerte Eigenraum zum Eigenwert i von f . So ist die Prim arkomponentenzerlegung nach Satz 15.2-5 von Vf nichts anderes als die altbekannte Zerlegung (Satz 13.2-12) von V in verallgemeinerte Eigenr aume des Endomorphismus f . alt seine PrimfakZerf allt das charakteristische Polynom f t K t nicht in Linearfaktoren, d.h. enth torzerlegung irreduzible Polynome vom Grad 2, so ist die Prim arkomponentenzerlegung von Vf die Verallgemeinerung der Zerlegung von V in verallgemeinerte Eigenr aume. 15.2-8 Denition/Bezeichnung: Wir k urzen endlich erzeugt jetzt mit e.e. ab. Sei M e.e. R Torsionsmodul, m M und sei annR m rR. Dann heit r die Ordnung von m, die mit Om bezeichnet wird. Die Zerlegung von M in Satz 15.2-5 heit Prim arkomponentenzerlegung des e.e. Torsionsmoduls M . Ist nun M ein beliebiger e.e. R-Modul, so k onnen wir mit Satz 15.1-13 zun achst M in eine direkte Summe M T M U mit einem freien R-Modul U zerlegen, d.h. den torsionsfreien Teil U von M abspalten. M T M ebenfalls e.e. ( 14.3-12) und U ist bis auf Isomorphie Als epimorphes Bild von M ist U eindeutig bestimmt. Wie wir gesehen haben, ist der Rang des freien R-Moduls U eindeutig bestimmt und endlich (Satz 14.3-21 und Korollar 15.1-11). Der Torsionsmodul T M M U ist ebenfalls e.e., wieder nach Satz 14.3-12. Er hat nach Satz 15.2-5 eine (eindeutige) Zerlegung in Prim arkomponenten T M T M p1 ... T M pn ,

wobei die paarweise verschiedenen Primelemente pi R i 1, . . . , n gerade die Primfaktoren der Ordnung OM von M sind, die in der Primfaktorzerlegung von OM mit positiver Vielfachheit vorkommen. Es bleibt also, die Moduln T M pi weiter zu zerlegen und zu bestimmen. Dies ist unser Ziel im n achsten Abschnitt.

15.3

Elementarteiler und Prototypen

15.3-1 Denition: Sei R ein Ring mit Einselement, M ein R-Modul. Dann heit M zyklischer RModul, falls M von einem Element erzeugt wird, d.h. m M : M Rm rm r R. 15.3-2 Satz: M ist zyklischer R-Modul genau dann, wenn M epimorphes Bild des regul aren R-Moduls Rm, so ist M R annR m. R R ist. Ist M Bemerkung: F ur einen nichtkommutativen Ring, einen Linksmodul M und m M ist annR m r R rm 0 ein Linksideal in R; denn r, s annR m rm sm 0 r sm 0 r s annR m und f ur t R ist trm trm t 0M 0M tr annR m. Die Linksuntermoduln von R R sind gerade die Linksideale und sind daher die Kerne von R-Modulhomomorphismen von R R in andere R-Moduln. 15.3-3 Korollar: Sei R ein HIR und M ein zyklischer R-Torsionsmodul mit Erzeuger m r Om. Dann ist M RrR als R-Modul und OM r.

M . Sei

223

15.3-4 Denition: Sei R Ring mit Eins, M ein R-Modul und y1 , . . . , ym unabh angig , falls aus 1 y1 2 y2 . . . m ym 0 mit 1 , . . . , m

M . Dann heien y1 , . . . , ym

R stets i yi

0 f ur alle i

1, . . . , m folgt.

Vorsicht: Unabh angig und linear unabh angig sind zwei Paar Stiefel. Bei linear unabh angig for dern wir mehr, n amlich (in der Notation von Denition 15.3-4), dass i 0 ist f ur i 1 , . . . , m. Nat urlich ist eine linear unabh angige Teilmenge von M immer auch unabh angig, aber nicht umgekehrt. angig, aber nicht linear unabh angig! Zum Beispiel ist im Z-Modul Z2Z die Nebenklasse 1 2Z unabh 15.3-5 Satz: Sei R Ring mit Eins, M ein R-Modul und sei y1 , . . . , ym ein unabh angiges Erzeugendensystem. Dann ist M Ry1 . . . Rym . Umgekehrt ist M Ry1 . . . Rym y1 , . . . , ym M , so angig. ist y1 , . . . , ym unabh 15.3-6 Korollar: Seien M und y1 , . . . , ym wie in Satz 15.3-5 und sei R zus atzlich ein HIR. Sei si Oyi . Dann ist M Ry1 . . . Rym RRs1 . . . RRsm . Unsere Strategie ist nun, f ur e.e. R-Torsionsmoduln M u angiges ber einem Hauptidealring R ein unabh Erzeugendensystem zu nden. Daf ur m ussen wir ein wenig arbeiten. Wegen der Prim arkomponentenzerlegung von M k onnen wir annehmen, dass M Mp ist f ur ein Primelement p R. 15.3-7 Lemma: Sei R ein HIR und sei M ein e.e. R-Torsionsmodul, dessen Ordnung OM pk ist f ur ein Primelement p R und ein k N. (Das heit M Mp ). Sei m M mit Om OM pk und sei M M Rm. Dann gibt es in jeder Nebenklasse x x Rm M ein Modulelement y M mit y x und Ox Oy Oy . 15.3-8 Lemma: Sei R ein HIR und sei M ein e.e. R-Torsionsmodul mit OM pk f ur ein PrimO M pk ist, und seien y1 , . . . , yn M , element p R und ein k N. Sei m M , sodass Om sodass die Nebenklassen yi yi Rm M Rm unabh angig sind, und seien die Nebenklassenvertreter y i yi Rm so gew ahlt, dass Oy i Oyi ist f ur i 1, . . . , n, dann ist auch m, y1 , . . . , yn M unabh angig. Rm m 15.3-9 Satz: Sei R ein HIR und M Primelement p R und k N. Dann gilt:

M ein zyklischer R-Modul der Ordnung pk f ur ein


M und M M und OM 0, . . . , k ist pr azise die pk f ur 0, 1, . . . , k .

2. 0 Mk Mk1 Mk2 . . . M2 M1 M0 M ist zyklisch mit Erzeuger p m der Ordnung pk . 3. Sei x M . Dann ist x Erzeuger von M , d.h. M

1. F ur 0 k sei M p M Rp m. Dann ist M Menge der Untermoduln von M .

4. Jedes Erzeugendensystem von M enth alt ein x M1 und dann ist M

Rx genau dann, wenn x M1 ist. Rx.

15.3-10 Denition: Sei R ein Ring mit 1 und M ein R-Modul. Sei S M Erzeugendensystem von Rx. Wir sagen S sei minimales Erzeugendensystem von M , falls T M ist f ur M , d.h. M S jede echte Teilmenge T von S .
x S

224

15.3-11 Korollar: Sei R ein HIR und M ein zyklischer R-Modul der Ordnung pk f ur ein Primelement p R und ein k N. Sei S M minimales Erzeugendensystem von M . Dann ist S x mit x M , aber x pM . 15.3-12 Beispiel: Sei R Z, dann ist ein zyklischer R-Modul nichts anderes als eine zyklische Gruppe, ur ein x G. Wir schreiben hier einmal die Operation multiplikativ d.h. ein Gruppe G xi i Z xZ f und beachten, dass die Z-Operation dann im Exponenten geschrieben wird:
e e ... e zmal

f ur z

0, 0, 0. 1 m

ez

1 e1 . . . e1 e

1 f ur ein k Z und annZ G annZ x k Z xk G Torsionsgruppe heit dann, dass xk 0 1 1m OG Z. Sei m OG. Dann ist G 1 x , x , . . . , x und in der Tat ist OG G Anzahl der verschiedenen Elemente von G, (leichte Ubung!). Ist zus atzlich m pk eine Primzahlpotenz, so hat G genau eine Kette von Untergruppen. G G0 G1 ... ... Gk1 Gk

zmal

f ur z f ur z

1
1,

xp

xp
k 1

xp

die den Teilern p von pk entsprechen ( 0, . . . , k ). Man kann zeigen: Sei G abelsche Gruppe der Ordnung n. Dann ist G zyklisch genau dann, wenn G zu jedem Teiler d von n exakt eine Untergruppe Gd der Ordnung d besitzt und d1 d2 (d1 , d2 Teiler von n)  Gd2 Gd1 . 15.3-13 Satz: Sei R ein HIR und sei M ein e.e. R-Torsionsmodul der Ordnung pk f ur ein Primelement m1 , . . . , mn M ein endliches minimales Erzeugendensystem von p von R und ein k N. Sei s M . Dann enth alt jedes minimale Erzeugendensystem exakt n Elemente und es gibt eindeutig bestimmte nat urliche Zahlen k e1 e2 . . . en , sodass mit qi pei gilt: M Beachte: qn qn1 . . . q2 q1 pk . RRq1 ... RRqn .

Vf als K t-Modul. Sei f t 15.3-14 Beispiel: Sei f EndK V wir in Beispiel 15.2-7, V t 1 1 t 2 2 . . . t k k K t, d.h. das charakteristische Polynom von f zerfalle wieder in Linearfaktoren. In Beispiel 15.2-7 haben wir gesehen, dass die Prim arkomponentenzerlegung von Vf gerade die Zerlegung von V in verallgemeinerte Eigenr aume ist. Wir nehmen nun k 1 an, d.h. f hat nur einen Eigenwert K und f t t n mit n dimK V . Was bedeutet nun die Zerlegung von V V f Vf in zyklische K t-Moduln? t k  t k1 v Unser Primelement in K t ist t . Sei k N. Ist v V , so ist Ov k1 k k f v 0, aber t v f v 0, d.h. v V Ov t k kerf k kerf k1 . Wie sieht der zyklische K t-Modul K t K tt k aus?
I

Hier ist eine K -Basis desselben: 225

15.3-15 Problem: Die Nebenklassen 1 I, t I, . . . , tk1 I K tpt, f ur ein Polynom pt vom Grad k in K t.

I bilden eine K -Basis von K tI mit

15.3-16 Problem: Sei nun pt t k . Dann ist pt vom Grad k und daher hat eine K -Basis von K tK tt k exakt k Elemente. Zeigen Sie, dass t i I 0 i k 1 ebenfalls K -Basis von K tI (I K tt ) ist. Wie operiert t auf dieser Basis?

t I . . . t k1 I 0. Sei also v, f v, . . . , f k1 v, f k v 0 ein -Zykel, v kerf k , v kerf k1 . Dann operiert t auf diesen Elementen von Vf durch t : idv f v . . . f k1 v 0. Also spannt ein -Zykel von f gerade einen zyklischen K t-Modul auf! Zerlegungssatz 15.3-13 angewandt ocke von f ! auf den K t-Modul Vf liefert gerade die Jordanbl
t :1I Wir sind jetzt in der Lage, eine vollst andige Liste von paarweise nicht isomorphen, endlich erzeugten R-Moduln (Protoypen) f ur einen HIR R anzugeben. 15.3-17 Prototypen: Sei R ein Hauptidealring. Seien p1 , . . . , pk R paarweise nicht assoziierte Primelemente. F ur 1 i k seien i ei . . . ei 1 e1 ni 2 i i i i e nat urliche Zahlen und I Rp , 1, . . . , ni . Wir k urzen ab: ei e1 , . . . , eni und setzen: E pi , ei F ur N0 sei M p1 , e1 , p2 , e2 , . . . , pk , ek , Dann ist

RI1

...

i . RIn i
E pk , ek

E p1 , e1

...

R . . . R
viele Summanden

k N0 , n i N, N0 i , . . . , ei mit e e ni i 1 i i i M p1 , e1 , p2 , e2 , . . . , pk , ek , e1 e . . . e ni 2 p , . . . , p R Primelemente k 1 (bis auf Assoziierung)

eine vollst andige Liste von paarweise nicht isomorphen, endlich erzeugten R-Moduln. Dies ist aber noch nicht das Ende der Story! 15.3-18 Frage: Sei R ein HIR und sei r R, M RRr. M ist also zyklischer R-Modul der Ordnung r Nach 15.3-17 m usste dieser aber zu einem der R-Moduln aus unserer Liste isomorph sein. Zu welchem? Antwort: Prim arkomponentenzerlegung! 15.3-19 Satz: Sei R ein HIR und r s t eine Zerlegung von r R in Faktoren s, t R, s, t U R. Sei ggTs, t 1. Dann ist der zyklische R-Modul M RRr isomorph zu RRs RRt.

226

ek 1 15.3-20 Korollar: Sei R ein HIR, q R und sei q pe 1 . . . pk Primfaktorzerlegung von q in R. Dann ist k 1 . . . RRpe RRq. RRpe 1 k

15.3-21 Bemerkung: Die Zerlegung des zyklischen R-Moduls M gerade seine Zerlegung in Prim arkomponenten: M
k i 1

RRq in Korollar 15.3-20 ist

Mpi .

Aus den Prototypen der e.e. R-Torsionsmoduln in 15.3-17 l asst sich nun mit Hilfe von Korollar 15.3-20 eine zweite, kompaktere Liste von Prototypen herauskitzeln: 15.3-22 Prototypen u ber Elementarteiler: R ist ein HIR, p1 , . . . , pk R sind paarweise nicht i . . . ei mit ei N, 1, . . . , n . Wir assoziierte Primelemente von R. F ur 1 i k seien e1 ni i i i i 0 f ur ni n. F ur 1 i k sei ei e setzen n maxni 1 i k und e 1 , . . . , eni und Ei E pi , ei der e.e. R-Modul i e ei Ei RRpi 1 . . . RRpi n . ei F ur ni ist RRpi RRp0 RR 0. i Sei M M p1 , e1 , p2 , e2 , . . . , pk , ek
k

Ei aus der Liste 15.3-17.

i 1

Betrachte: e1 2 e1 . . . e1
e 1

Schema F :

k
e 2

e2 2 e2 . . . e2

k
e k

... ... . . . ...

en 2 en . . . en

0 0 0

Sei f ur 1 i k , qi p1i p2i . . . pki , d.h. pj hat gerade den Exponenten ei seiner Primfaktorzerlegung. Dann ist qn qn1 qn2 . . . q2 q1 . Nach 15.3-17 ist M M1 M2 . . . Mn mit e1 e2 ek RRp2 . . . RRpk M RRp1

j in der i-ten Spalte in

und nach Korollar 15.3-20 ist M RRq 1, . . . , n. Die q heien Elementarteiler von M . Klar ist, dass f ur k 1 (d.h. M Mp f ur ein Primelement p R) die Primzahlpotenzen in M RRpe1 ... RRpek

e1 ek p1 . . . pk die Umgekehrt: Ist eine Folge qn qn1 qn2 . . . q2 q1 von qi R vorgelegt und ist q 1, . . . , n, so ist wegen Primfaktorzerlegung von q (die pj sind bis auf Assoziiertheit eindeutig) f ur i i q q 1 2, . . . , n, e 1 e 0 f ur i 1, . . . , k und man erh alt ein Schema F und einen R-Modul M . Damit ergibt sich folgende alternative Liste von e.e. R-Moduln:

in Satz 15.3-13 dann gerade die Elementarteiler von M sind.

asentanten von AssoziierungsListe II von Prototypen: Sei R ein HIR und seien q1 , . . . , qn R Repr klassen von Elementen von R mit qn qn1 . . . q1 und sei N0 . Dann sei M q1 , . . . , qn , RRq1 ... RRqn R ... R.
mal

227

15.3-23 Satz: Sei R HIR und sei Ra ein Repr asentantensystem der Assoziierungsklassen von R. Dann ist M q1 , . . . , qn , q1 , . . . , qn Ra , qn qn1 qn2 . . . q2 q1, n N, N0 ein vollst andiges System nicht-isomorpher endlich erzeugter R-Moduln. Dabei ist q1 und OM q1 , . . . , qn , 0 f ur 0.

OM q1 , . . . , qn , 0

228

Kapitel 16

Anwendungen
16.1 Endlich erzeugte abelsche Gruppen

16.1-1 Problem: Sei G eine Gruppe, x G. Dann ist xi i Z eine Untergruppe x, die von x erzeugte zyklische Untergruppe von G. Diese ist abelsch. Die Abbildung Z x : i xi ist ein Gruppenepimorphismus von der additiven Gruppe Z, auf die (hier multiplikative) Gruppe x. Ist der Kern dieser Abbildung gleich 0, so ist Z x und die Ordnung x , d.h. die Anzahl der Elemente von x ist abz ahlbar unendlich. Ist der Kern ungleich 0, so sei n die kleinste nat urliche Zahl, sodass 1 ist. Dann ist x 1, x, x2 , . . . , xn1 und x n. Die Ordnung x der Gruppe x heit xn Ordnung von x und wird mit x bezeichnet. Ist n x N, so ist x ZnZ, . So sind die zyklischen Gruppen exakt die zyklischen Z-Moduln.

Z, ist also die einzige unendliche zyklische Gruppe. Wir wenden nun die Klassikationss atze 15.3-17 und
15.3-23 an, um die endlich erzeugten Z-Moduln, d.h. die endlich erzeugten abelschen Gruppen zu klassizieren. Klar:

Z, ist als Z-Modul frei (da torsionsfrei, siehe Korollar

15.1-11).

16.1-2 Klassikation der endlich erzeugten abelschen Gruppen: 1. Liste von Prototypen (Elementarteiler): Seien q1 , . . . , qk N, sodass qk qk1 . . . q1 in Z und sei N0 . Dann sei M q1 , . . . , qk , mit Cn Dann ist Cq1

...C Cq . . . Cq C
2 k

Faktoren

ZnZ, f ur n N und C

Z, .
. . . q1 , N0 0,

M q1 , . . . , qk , k N0 , q1 , . . . , qk N, qk qk1

eine vollst andige Liste nicht isomorpher, endlich erzeugter abelscher Gruppen. Ist dar uberhinaus so setzen wir M q1 , . . . , qk M q1 , . . . , qk , und erhalten durch

M q1 , . . . , qk k N0 , q1 , . . . , qk N, qk qk1

. . . q1 q1 q2 . . . qk

eine vollst andige Liste nicht isomorpher, endlicher abelscher Gruppen. Dabei ist M q1 , . . . , qk N.

229

2. Liste von Prototypen: pi sind positive Primzahlen, i i i Zahlen, ei e1 , . . . , en n N. Sei N0 . M p1 , e1 , . . . , pk , ek , C e1


p11

1, . . . , k , und e1

...

en

0 ganze

. . . Cp C
1 en 1

p21

. . . Cp C ...C .
k en k

Faktoren

16.1-3 Probleme: 1. Wieviele abelsche Gruppen A mit A mentarteiler? 2. Dasselbe mit A 3. Sei k 4.
e1

32 gibt es (bis auf Isomorphie) und was sind deren Ele-

N und A zyklische Gruppe mit A k. Was sind die Elementarteiler von A? urliche Zahlen und Sei M Cp . . . Cp mit e1 e2 . . . ek 0 nat a) p N Primzahl ur Primzahlen s und t, s t. b) p s t f
ek

15.

Was sind die Elementarteiler von M ? Das Wiedererkennungsproblem f ur abelsche Gruppen ist schwierig, wie das n achste Beispiel zeigt: 16.1-4 Beispiel: R Z und M1 Z2Z Z, M2 Z Z. Dann ist M1 x, y mit x 1 2Z, 1, y 0, 1 und M2 a, b mit a 1, 0, b 0, 1. Man sieht unmittelbar: x y a b . Beides sind minimale Erzeugendensysteme f ur M1 , bzw. M2 . Nur aus der Kenntnis der Ordnungen Obi i 1, . . . , k einer von k Elementen b1 , . . . , bk erzeugten abelschen Gruppe l asst sich wenig schlieen. F ur M2 gilt: na mb 0  n m 0 n, m Z, aber f ur M1 gilt: 2x 2y aber 2x 2x y 0 0. 21 2Z, 1 20, 1

0 2Z, 2 0, 2 0, 0,

2y , d.h. x und y sind nicht unabh angig! Man braucht also noch Relationen wie z.B.

Ist M T M F e.e. Z-Modul mit Torsionsteil T M und freiem Anteil F , so kann man den Rang von F auf folgende Weise bestimmen: Man betrachtet Q Z M , wobei das Tensorprodukt u ber Z genauso wie in Denition 12.3-4 deniert ist, nur dass eben jetzt der K orper K durch den Ring Z ersetzt wird. Das Tensorprodukt erf ullt dann ebenfalls die universelle Eigenschaft aus Satz 12.3-7 (wobei wieder der K orper durch den Ring ersetzt wird). Es gilt: 16.1-5 Satz: Sei A eine endliche abelsche Gruppe, dann ist Q 16.1-6 Satz: Sei F freier Z-Modul vom Rang n N. Dann ist Q uber Q.
Z

A
ZF

0.
ein n-dimensionaler Vektorraum

230

16.1-7 Satz: Sei M endlich erzeugte abelsche Gruppe und sei n die Q-Dimension des Vektorraums Q Z M . Dann ist M T M F , wobei der freie Anteil F von M vom Rang n ist. Sei M e.e. Z-Modul. Es verbleibt die Aufgabe, die Elementarteiler von T M zu nden. Dies ist in der Praxis eine nicht immer einfache Aufgabe und h angt davon ab, in welcher Form M gegeben ist. In der Praxis wird man versuchen, die endliche abelsche Gruppe A T M in ihre Prim arkomponenten Ap (p N Primzahl) zu zerlegen. Dann wendet man Lemma 15.3-8 an um Ap weiter klein zu hacken. Der Beweis von Lemma 15.3-7 liefert ein Rezept, wie man in Nebenklassen unter bestimmten Voraussetzungen ein Element ndet, das dieselbe Ordnung wie die Nebenklasse hat. Hier sind noch zwei Folgerungen aus der Klassikation e.e. abelscher Gruppen, die interessant sind: 16.1-8 Satz: Sei k N. Dann gibt es nur endlich viele abelsche, nicht isomorphe Gruppen A mit A k . Ist k multiplizit atenfrei, d.h. kommt in der Primfaktorzerlegung jede vorkommende Primzahl nur mit Exponent 1 vor, so gibt es bis auf Isomorphie nur eine abelsche Gruppe A mit A k , n amlich die zyklische Gruppe Zk Z der Ordnung k . 16.1-9 Problem: Zeigen Sie: eine abelsche Gruppe A ist zyklisch genau dann, wenn A f ur jeden Teiler d von A genau eine Untergruppe der Ordnung d besitzt. 16.1-10 Bemerkung: F ur eine Gruppe G wird G auch die Ordnung von G genannt. Dies ist nicht ganz gl ucklich, da f ur abelsche Gruppen A im allgemeinen A OA ist. In der Tat ist A OA genau dann, wenn A zyklisch ist.

16.2

Die kanonisch rationale Form

Jetzt ist K ein K orper, R K t der Polynomring in der Unbestimmten t u ber K und V ein endlichdimensionaler K -Vektorraum. Wir xieren einen Endomorphismus f EndK V und betrachten den K t-Modul M Vf aus Beispiel 14.3-3 4., d.h. pt K t operiert auf v V durch p t v

pf v.

f t das charakteristische Polynom und t f t das Minimalpolynom Wie immer sei t von f . Dann folgt sofort aus der Denition des Verschwindungsideals If (vor Denition 13.4-1), dass If annK t Vf und OVf f ist. K t ist ein HIR nach Korollar 14.2-10. 16.2-1 Lemma: M Vf ist endlich erzeugter Torsionsmodul. V (K -Vektorraum). Dann ist U f -invariant

16.2-2 Problem: Sei U M V.

 U ist K t-Untermodul von

Wir werden die kanonische rationale Form von f (bzw. A f ur eine K -Basis B von V ) aus f B der K t-Modulstruktur von M Vf rauskitzeln. Klar ist dann, dass zu A ahnliche Matrizen diesselbe ur ein g kanonische rationale Form haben, bzw. in Endomorphismensprache, wenn h g 1 f g ist f AutK V , so haben h und f dieselbe kanonische rationale Form. Aber auch die Umkehrung gilt.

231

16.2-3 Satz: Seien f und g in AutK V konjugiert, d.h. es gibt ein d AutK V mit f d1 gd. Dann ist d : Vf Vg ein K t-Isomorphismus und daher ist Vf Vg als K t-Modul. Sind umgekehrt f und g K -automorphismen von V mit Vf Vg als K t-Moduln, und ist d : Vf Vg ein Isomorphismus von K t-Moduln, dann ist f d1 gd, d. h. f und g sind konjugiert. Satz 16.2-3 zeigt, dass die Modulstruktur von V als K t-Modul f ur konjugierte Endomorphismen f und g gleich ist, d.h. zum selben Prototypen aus unserer Liste 15.3-17, bzw. 15.3-22 isomorph ist. Wie wir sehen werden, bestimmt dieser Prototyp eine kanonisch rationale K -Basis von V , sodass bzgl. dieser Basis f und g dieselbe Matrix (kanonische rationale Form) haben. Analog gilt f ur n nMatrizen A und B : sind A und B a hnlich, so haben sie dieselbe kanonische rationale Form. Da jede Matrix (Endomorphismus) zu ihrer kanonischen rationalen Form konjugiert ist, bilden die kanonischen rationalen Matrizen ein Repr asentantensystem f ur die Ahnlichkeitsklassen von n n-Matrizen. 16.2-4 Korollar: Seien A und B n n-Matrizen uber K . Dann sind A und B ahnlich genau dann, wenn ihre kanonischen rationalen Formen gleich sind. Nun ist es aber an der Zeit, dass wir die kanonische rationale Form einer n n-Matrix (bzw. eines Endomorphismus f EndK V ) kennen lernen. Ein bisschen m ussen wir dazu noch arbeiten. ahlen wir die norAls Repr asentantensystem in Assoziierungsklassen irreduzibler Elemente in K t w mierten, irreduziblen Polynome. Das Minimalpolynom ist per denitionem ebenfalls normiert und daher Produkt normierter, irreduzibler Polynome: t
k i 1

pi ti

i N

mit p1 , . . . , pk K t paarweise verschiedener, irreduzibler, normierter Polynome. So erhalten wir die Prim arkomponentenzerlegung von M Vf nach Satz 15.2-5 M wobei Mpi 16.2-5 Mp1 ... Mpk ,

v M pitm v 0 m N ist. Die Prim arkomponenten lassen sich ausrechnen: Satz: Sei t wie oben und 1 i k . Dann ist
kerpi f i 1 Mpi kerpi f i V.

16.2-6 Problem: Die i in Satz 16.2-5 lassen sich wie folgt bestimmen: Wir haben ker pi f ker pi f 2 ... ker pi f j ...

Diese aufsteigende Kette von K -Unterr aumen von V muss station ar werden. Sei m die kleinste nat urlich Zahl, sodass kerpi f m kerpi f m1 ist. Dann ist m i . t K ein lineares Polynom. 16.2-7 Korollar: Sei pi t wie in Satz 16.2-5 und sei pi t Dann ist Mpi Vf , der verallgemeinerte Eigenraum von f zum Eigenwert . 16.2-8 Satz: Sei p

K t und Cp K tK tp der zyklische K t-Modul. Sei n deg p. Dann ist n1 dimK Cp n und 1, t, . . . , t ist K -Basis von Cp, wobei ti ti K tp Cp ist f ur i 0, . . . , n 1.

232

16.2-9 Erinnerung: Erinnern Sie sich an die Denition 13.1-3 eines f -zyklischen Unterraums von V ? Hier ist sie nochmals: Sei v V . Dann ist der von v erzeugte f -zyklische Unterraum f i v i N. 16.2-10 Satz: Sei v Vf . Dann ist der von v erzeugte zyklische K t-Untermodul K t v der von v erzeugte f -zyklische Unterraum von V . Dieser ist f -invariant und die Einschr ankung von f auf K tv sei mit fv bezeichnet. Sei fv t pt 0 1 t . . . k1 tk1 tk das normierte Minimalpolynom von fv . Dann ist Ov pt und v, f v , . . . , f k1 v B ist K -Basis von K tv . Die Matrix fv B , B ist die Begleitmatrix von pt, d.h. ist die k k -Matrix

B, B
f
v

1 0 . . . . . .

0 .. . .. .

0 .. . .. .

.. .. . .

0 . . . . . .

. . . . . . . . . 0 1 k1

0 1

Nun k onnen wir die kanonische rationale Form von f hinschreiben: 16.2-11 Kanonisch rationale Form: Sei dimK V n, f

die Primfaktorzerlegung von f t in K t mit paarweise verschiedenen, irreduziblen normierten Polynomen vom Grad ni und Vielfacheit i . F ur p K t sei p Mdeg pdeg p K die Begleitmatrix von p nach i . . . ei 0 Satz 13.1-7. Dann gibt es eine Basis B von V und f ur 1 i k nat urliche Zahlen e1 m (f ur ein m N), sodass gilt: die n n-Matrix f B , B hat Blockdiagonalform
i 1

EndK V . Sei f t

pi ti

K t

diag
k m

e p11

e p12

, . . . , p1

1 2 e e
m

, p2

, . . . , pkm

k e

mit
i 1j 1

ej deg pi

n.

Diese Blockdiagonalmatrix heit kanonische rationale Form von f . (F ur n n-Matrizen analog). Was sind die Elementarteiler von Vf ? Diese berechnet man wie in Korollar 15.3-20. Man erh alt normierte Polynome qs qs1 . . . q2 q1 mit q1 f t und 16.2-12 Korollar: (kanonisch rationale Form II) V hat eine K -Basis, sodass diag q1 , q2 , . . . , qs f B , B

ist. Hier ist qi wobei f t


k

1 e2 k e e p1i p2i . . . pki


ei . Es ist dann f t
k j 1

k,

q1
i 1

i p i ist mit i

j j j e e2 ...e m pj 1 .

233

Insbesondere ist f t Modul ist.

f t genau dann, wenn Vf nur einen Elementarteiler hat, d.h. zyklischer K t-

Soweit haben wir gezeigt, dass jede n n-Matrix (jeder K -Endomorphismus f von V ) eine kanonische rationale Form besitzt, ahnliche Matrizen (in AutK V konjugierte Endomorphismen) dieselbe kanonische rationale Form haben und nicht ahnliche Matrizen (nicht in AutK V konjugierte Endomorphismen) verschiedene kanonisch rationale Formen besitzen. Nun kommt aber das Wiedererkennungsproblem: Wie orige kanonisch kann ich f ur eine gegebene n n-Matrix A (einen K -Endomorphismus f von V ) die zugeh rationale Form bestimmen? 16.2-13 Prozedur: Gegeben sei f EndK V , V ein K -Vektorraum der Dimension n und K ein K orper. Die kanonische rationale Form von f zu bestimmen heit herauszunden, zu welchem Prototyp in Liste 15.3-17 Vf isomorph ist (wir benutzen Liste 15.3-17, nicht die Elementarteilerliste 15.3-22). 1. Schritt: Berechne das charakteristische Polynom f t. 2. Schritt: Berechne die Primfaktorzerlegung von f t normierten, irreduziblen Polynomen p1 , . . . , pk K t.
k 1 p 1 . . . pk mit paarweise verschiedenen,

3. Schritt: Berechne die Kerne von pi f bra!) F ur 1 i k sei kerpi f

EndK V f ur
...

1, 2, . . . (Aufgabe der Linearen Alge-

kerpi f 2

i kerpi f e1

i kerpi f e1 1 .
M1 ... Mk

4. Schritt: Nun halten wir 1 i k fest und zerlegen die Prim arkomponenten Mi Vf pi weiter. Der Einfachheit halber setzen wir p pi und M Mi Vf pi und schreiben wieder f anstatt fi f Mi (oder wir nehmen alternativ an, dass k 1, f t pe1 ). Wir w ahlen ein minimales Erzeugendensytem f ur den K t-Modul M , etwa, indem wir eine K Basis nehmen und Basisvektoren rausstreichen bis ein minimales K t-Erzeugendensytem entsteht (hoher Aufwand). Sei ein solches gegeben als v1 , . . . , vs M . Dann wissen wir schon wegen Satz 15.3-13, dass M isomorph zur direkten Summe von s zyklischen Moduln K tpei K t ist, mit e1 ussen gegeben durch f t pe1 . Wir brauchen noch e2 . . . es 0. Unter den Erzeugenden vi m wir eines nden, o.B.d.A. v1 , mit Ov1 OM f t pe1 . Dann wissen wir, dass K tv1 ein K t-Untermodul und daher ein f -invarianter Unterraum von M ist. Daher induziert f einen Endomorphismus f : M M : m K tv1 f m K tv1 mit M M K tv1. Nach Konstruktion ist f ur rt K t und m M :

k 1 Dann ist f t p e1 und die Prim arzerlegung von Vf ist Vf 1 . . . pk mit k asst sich (die pi s gegeben) konkrekt ausrechnen! mit Mi kerpi f i . Das l

zweite Elementarteiler von M ist. Dies sieht man so: Nach Satz 15.3-5 existiert ein unabh angiges Erzeugendensystem y 2 , y 3 , . . . , yl von M , y i yi K tv1 und nach Lemma 15.3-7 kann f ur 2 i l der Nebenklassenvertreter yi M so gew ahlt werden, dass Oy i Oyi ist. Nach Lemma 15.3-8 ist dann v1 , y2 , . . . , yl ein unabh angiges Erzeugendensystem von M . Wir schlieen, dass M K tv1 K ty2 234 ... K tyl

rt m K tv1 rf m K tv1 rf m K tv1, d.h. der Vektorraum M K tv1 zusammen mit dem K -Endomorphismus f von M K tv1 induziert pr azise den K t-Faktormodul M K tv1 . ur m M ist pte m 0 f ur alle Nebenklassen m K tv1 , d.h. Beachte: Wegen pte m 0 f ur ein e2 e1 . Ich behaupte, dass pe der OM teilt OM und ist daher von der Form pte f
1 1 2 2

rtm K tv1

sein muss, dass l s ist, und dass Oy2 Oy 2 OM ist, nach eventueller Umnummerierung der y2 , . . . , ys . Also ist pe2 OM der zweite Elementarteiler von M . Wir haben aber nur die Existenz der unabh angigen y 2 , . . . , ys in M und kein konstruktives Verfahren, um solche zu bestimen. Allerdings h angt OM nicht von der Konstruktion ab, sondern kann mit linearer Algebra durch Betrachtung von kerpf kerpf 2 ... kerpf e2 kerpf e2 1

bestimmt werden. Um e3 zu bestimmen, wiederholen wir die Prozedur nun mit f EndK M anstatt f EndK M . Durch s-maliges Anwenden kommen wir schlielich an den zyklischen K t-Modul (s-facher Faktor modul von M ) M K tpes K t an. Jetzt k onnen wir r uckw arts gehen und mit Lemma 15.3-8, , durch alle s iterierten Faktoren, ein unabh ausgehend von einem Erzeuger M angiges Erzeugendensystem y1 , . . . , ys von M selbst nden (Der Beweis von Lemma 15.3-7 gibt eine Konstruktion eines Nebenklassenvertreters im n achst h oheren Faktor, der dieselbe Ordnung wie die Nebenklasse hat). Es ist dann Oyi pei und daher, nach Satz 16.2-10, ist f u r 1 i s: Bi

yi, f yi, . . . , f e 1 yi
i

kanonisch rationale Basis von

, sodass B, B diag p
f

K -Basis von K tyi , M

i 1

K tyi und daher

Bi

B die

i 1

e1

, pe , . . . , pe
2 s

ist. Eine echte Bemerkung: 16.2-14 Bemerkung: Ist die Jordanform ein Spezialfall der kanonischen rationalen Form? Die Antwort ist: Nein. Dies kann man schon an Satz 15.3-13 sehen: Wir nutzen f ur die Jordanform nicht den f -Zykel als Basis, sondern den t -Zykel (also anstatt achstes Problem. f i v , t i v f i v ) und das macht einen Unterschied, siehe n 16.2-15 Problem: Sei
0 . . . . . .

J n

1 .. .

0 .. . .. .

.. .. 0 . .

0 . . .

0 Was ist die kanonische rationale Form von A?

Mnn K . 0 1

235

Index
K -Algebra, 75 K -Vektorraum, 40 K -lineare Abbildung, 60 -Zykel, 177 m n-Matrix A, 67 R-Vektorraum, 37 f -invariant,, 99 k -fach linear, 165 k -fache Linearform, 166 Aquivalenzklasse, 11 Aquivalenzrelation, 10 ahnliche Matrizen, 97 u ahlbar, 50 berabz Abbildung, 16 inverse, 37 Kern einer, 64 linear, 60 orthogonale, 118120 unit are, 123 Ableitung, 142, 147 Abschluss algebraischer, 104 Abstand von Vektoren, 192 abz ahlbar, 50 Addition, 37 adjungiert, 124 -e Matrix, 123 Adjunkte, 97 algebraisch abgeschlossen, 103 algebraischer Abschluss, 104 Algebrennorm, 193 Algorithmus, 85 alternierende Multilinearform, 168, 169 Amplitude, 116 Anfangsbedingung, 141 Anfangswertaufgabe, 191 Annullator, 219 Antihomomorphismus, 76 Antisymmetrie, 12 Assoziativit at skalare, 35 Aufspann linearer, 173, 185 Automorphismus, 61 Bahn, 162 Banachalgebra, 193 Banachraum, 193 Basis, 48, 216 angepasste, 184 duale, 150 nat urliche, 71 Basiswechsel, 66 Betrag eines Vektors, 23 bijektiv, 20 Bild, 18 bilinear, 110, 153 Bilinearform, 153 alternierende, 156 ausgeartete, 156 nicht ausgeartete, 156 symmetrische, 110, 156 bin are Operation, 37 Blockmatrix, 108 Cauchyfolge, 192 Charakteristik, 134 charakteristische Gleichung, 101 charakteristisches Polynom, 102 Darstellung, 214 nichttriviale, 48 triviale, 48 Denitionsbereich, 18 Determinante, 92, 93, 170 eines Endomorphismus, 97 diagonalisierbar, 105, 106 Diagramm kommutatives, 130 Dierenzialgleichung, 142 homogene, 142

236

L osung, 142 L osungsraum, 143 lineare, 142 Dierenzialoperator, 143 Dierenziation, 173, 185 dierenzierbar, 142 Dierenzmenge, 8 Dimension, 26, 52 Dimensionsformel, 54 direkte Summe, 54, 55, 107 disjunkt, 11, 53 disjunkte Vereinigung, 11 Displacements, 93 Distributivit at skalare, 35 vektorielle, 35 Divisionsring, 39 duale Basis, 150 dualer Vektorraum, 149 duales Komplement, 151 Durchschnitt von Unterr aumen, 46 von Mengen, 8 Ebene, 31 echt, 204 Eigenraum, 104 verallgemeinerter, 176 Eigenvektor, 100 verallgemeinerter, 176 Eigenwert, 100 Einheit, 76, 206 Einheitengruppe, 76, 206 Einheitsvektor, 112 Einschr ankung, 19 Einselement, 39, 75 Element einer Menge, 5 gr otes, 13 invertierbares, 76 kleinstes, 13 maximales, 13 minimales, 13 elementare Operationen, 80 elementare Spaltenoperation, 80 elementare Zeilenoperation, 79 Elementarmatrizen, 80 Elementarteiler, 227 Ellipsoid, 128 endlich erzeugt, 52, 205, 216

endlich-dimensional, 47 Endomorphismus, 61 adjungierter, 124 Epimorphismus, 61 Equilibriumbedingung, 139 Erzeugende, 43 Erzeugendensystem, 43, 216 minimales, 47 Erzeuger, 43, 189 Euklidischer Ring, 209 Euklidscher Vektorraum, 36 exakte Folge, 217 Fahne, 184 faktoriell, 211 Faktormodul, 215 Faktorraum, 58 Faktorring, 188, 204 Faser, 64 ag, 184 Flussgeschwindigkeit, 135 Folge, 22 Fourieranalyse, 115 Fourierkoezient, 150 Fourierkoezienten, 115 freier Modul, 216 Fundamentaltransposition, 163 Funktion, 16 elementarsymmetrische, 103 polynomiale, 42 Gau-Algorithmus, 90 Geometrie, 109 geordnet teilweise, 12 wohl-, 14 geordnete Basis, 51 geordnetes Paar, 9 Gerade, 27, 30 gerade Permutation, 164 Gleichungssystem lineares, 83 gr oter gemeinsamer Teiler, 209 gr otes Element, 13 Grad, 42 Gram-Schmidt, 114 Grammatrix, 154 Graph, 16 Grenzwert, 192 Gruppe, 39 237

abelsch, 38 orthogonale, 119 spezielle lineare, 97 symmetrische, 93 Hauptachsenform, 126 Hauptachsentheorem, 121, 125 Hauptideal, 189, 205 Hauptidealring, 201, 208 Hauptraum, 182 hermitische Form, 111 Hessesche Normalform, 28 Hintereinanderausf uhrung, 19 homogen, 84, 104, 142, 191 Homomorphismus, 60 Kern eines, 64 Hyperboloid, 128 Hyper ache, 125 Ideal, 187, 204 Identit at, 21 Imagin arteil, 142 inhomogen, 84 injektiv, 20 inneres Produkt, 110 Integrit atsbereich, 207 Inverse, 37 irreduzibel, 211 Isometrie, 118 isometrisch, 119 isomorph, 51, 61 Isomorphismus, 61 Jordanbasis, 176 Jordanblock, 175 Jordanform, 175 Jordansche Normalform, 175 Jordanzerlegung, 187 K orper, 36, 38 kommutativer, 39 Schief-, 39 kanonische Projektion, 63 kanonische rationale Form, 233 kanonischer Isomorphismus, 152 Kardinalit at, 22 kartesisches Produkt, 9 Kategorie, 118 Kegel, 128, 131 Kern

eines Homomorphismus, 64 h oherer, 182 Kirchhos Stromkreisregel, 138 Kirchhos Verzweigungsregel, 138 kleinstes Element, 13 kleinstes gemeinsames Vielfaches, 209 Kofaktor, 96 kommutativer K orper, 39 Komplement, 46 duales, 151 orthogonales, 117 komplement ar, 46 komplex konjugiert, 111 Komponente, 26 kongruent, 57 Konjugationsklasse, 165 konjugiert, 97, 165, 189 Kontraposition, 7 konvergent, 193 Koordinaten, 28 Kroneckerdelta, 53 kurze exakte Folge, 217 L/ange einer Bahn, 162 L ange, 164 einer Fahne, 184 einer Permutation, 93 eines Vektors, 109, 112, 192 L ange, 24 L osung triviale, 84 Laplace, 96 leere Menge, 6 Limes, 192 linear unabh angig, 216 linear abh angig, 48 linear unabh angig, 48 lineare Darstellung, 214 lineare Abbildung, 60 lineare Gleichungssysteme aquivalente, 84 lineare Ordnung, 13 Lineare Transformation, 60 Linearer Aufspann, 36, 173, 185 lineares Gleichungssystem homogenes, 84 lineares Gleichungssystem, 83 inhomogenes, 84 Linearform, 149, 151 Linearkombination, 36 238

Linkshomomorphismus, 155 Linksideal, 187 M achtigkeit, 22 Matrix, 65 adjungierte, 123 augmentierte, 81 Block-, 108 Blockdiagonal, 107 diagonalisierbare, 105 Elementar-, 80 Gram-, 154 hermitische, 124 konjugiert komplexe, 123 Konsumptions-, 139 monomiale, 94 nichtnegative, 139 normale, 124 orthogonale, 120 Oszillations-, 198 Permutations-, 94 Rang einer, 79 selbstadjungierte, 124 singul are, 89 Skalar-, 102 symmetrische, 120 transponierte, 71 unit are, 124 Matrixmultiplikation, 73 Matrizen ahnliche, 97 konjugierte, 97 maximales Element, 13 Menge, 5 abgeschlossen, 37 Dierenz-, 8 Durchschnitt, 8 endliche, 14 leere, 6 Potenz-, 8 Teil-, 6, 8 unendliche, 14 Vereinigung, 8 minimales Element, 13 minimales Erzeugendensystem, 224 Minimalpolynom, 189 modulo, 57 Monome, 207 Monomorphismus, 61 Morphismus, 118

Multiindex, 166 multilinear, 92, 165 Multilinearform, 166 Multiplikation im Ring, 75 skalare, 25, 35, 40, 69 von Endomorphismen, 75 von Matrizen, 73, 75 Multiplizit at, 103 nat urlicher Isomorphismus, 152 Nebenklasse, 57 -nvertreter, 58 Netzwerkprobleme, 135 neutrales Element, 39 nichttrivial, 204 nilpotent, 186 Nilpotenzgrad, 186 noethersch, 205 Norm, 109, 112 Norm eines Vektors, 109 normale Matrix, 124 Normalform Hessesche, 28 Nullelement, 37 Nullteiler, 207 nullteilerfrei, 207 Nullvektor, 24, 37 obere Schranke, 14 Ohmsches Gesetz, 138 Operation bin are, 37 Operator, 16 Ordnung, 162 lineare, 13 teilweise, 12 totale, 13 Wohl-, 14 Ordnung eines Elements, 223 Ordnung eines Moduls, 222 orthogonal -e Abbildung, 118120 -e Gruppe, 119 -e Matrix, 120 -e Vektoren, 113, 114 -es Komplement, 117 -es System, 114, 115 aquivalent, 121 links-, 155 239

rechts-, 155 Orthogonalbasis, 27, 30 Orthonormalbasis, 27, 30, 114 orthonormales System, 114 Oszillationsmatrix, 198 Paar geordnetes, 9 Paraboloid, 128 parallel, 23, 29, 30 Parameterdarstellung, 27, 30 Partition, 11, 165, 181 Permutation, 20, 93 Fehlst anden, 93 L ange, 93 Permutationsmatrix, 94 Pivotelemente, 91 Polynom, 41, 143 assoziiertes, 143 charakteristisches, 102 irreduzibles, 190 lineares, 103 normiert, 189 Polynomdivision, 189 polynomiale Funktion, 42 positiv semidenit, 112 positiv denit, 110, 112 positiv semidenit, 110 Potenzmenge, 8 Prim arkomponente, 221 Prim arkomponentenzerlegung, 223 Primelement, 211 Primfaktorzerlegung, 210 Primideal, 211 Primk orper, 133 Primzahl, 191 Produkt, 206 inneres, 110 kartesisches, 9 Skalar-, 110 Vektor-, 33 von Matrizen, 73 Projektion, 215 kanonische, 63 Quadrik, 125 Quotientenk orper, 208 Quotientenraum, 58 Radikal

Links-, 155 Rechts-, 155 Rang, 79 Raum Faktor-, 58 linearer, 109 Quotienten-, 58 Realteil, 142 Rechtsideal, 187 reduzierter Ausdruck, 164 reeller Vektorraum, 37 Reexivit at, 10, 12 Relation Aquivalenz-, 10 zweistellige, 10 Relationen, 230 relativ unabh angig, 53 Repr asentanten, 58 Repr asentantensystem, 58 Rest -klasse, 57 nach Polynomdivision, 189 Richtung eines Vektors, 23 Richtungsvektor, 31 Ring, 75 kommutativer, 75 mit Eins, 75 Schauderbasis, 117 Schiefk orper, 39 selbstadjungierte Matrix, 124 semilinear, 153 Signum, 93, 164 skalare Multiplikation, 25, 35, 40, 69 skalare Vielfache, 36 Skalarprodukt, 26, 110, 112 Spalten einer Matrix, 67 Spaltenrang, 78 Spaltenvektor, 67 Spur, 103 Summe, 69, 215 direkte, 54, 55 von Unterr aumen, 46 Summe von Vektorr aumen, 45 surjektiv, 20 Symmetrie, 10 Anti-, 12 symmetrisch, 121 symmetrische Bilinearform, 110 symmetrische Multilinearform, 168 240

Teilmenge, 6, 8 teilweise geordnet, 12 teilweise Ordnung, 12 Tensorprodukt, 156, 171 Torsionselement, 219 torsionsfrei, 219 Torsionsmodul, 220 Torsionsuntermodul, 220 totale Ordnung, 13 Transitivit at, 10, 12 Transposition, 93, 163 Fundamental, 163 Treppenform, 90 trigonometrische Funktionen, 111 Umkehrabbildung, 21 Umkehrrelation, 19 unabh angige Elemente, 224 unendlich-dimensional, 47 ungerade Permutation, 164 unipotent, 186 unit arer Raum, 112 universelle Eigenschaft, 160 untere Schranke, 14 Untermodul, 214 Unterraum, 41 f -invarianter, 99 f -zyklischer, 173 aufgespannter, 44 Urbild, 19 Vektor, 24 Addition, 35 Anfangs-, 181 Betrag, 23 Eigen-, 100 End-, 181 normiert, 112 Null-, 24 Richtung, 23 Skalarmultiplikation, 35 Vektorprodukt, 33 Vektorraum u ber K , 40 dualer, 149 euklidischer, 36, 110 normierter, 109 reeller, 37 Summe, 45, 46 unit arer, 112

Unter-, 41 verallgemeinerte Eigenvektoren, 176 verallgemeinerter Eigenraum, 176 Verband, 131 Vereinigung disjunkte, 11 Vereinigung von Mengen, 8 verschiebungsgleich, 24 Verschwindungsideal, 188 Vielfache skalare, 36 Vielfachheit, 103 vollst andig, 193 Widerspruchsbeweis, 7 windschief, 31 Winkel, 110, 113 wohlgeordnet, 14 Wohlordnung, 14 Youngdiagramm, 181 Zeilen einer Matrix, 67 Zeilenrang, 78 zentral, 102 Zerlegung in irreduzible Faktoren, 211 zweistellige Relation, 10 Zykel, 162, 163, 177 Zykelschreibweise, 163 Zykeltyp, 165 zyklische Basis, 177 zyklischer Modul, 220, 223 Zylinder, 129

241