Sie sind auf Seite 1von 127

Mitschrift zur Lineare Algebra I Vorlesung von

Prof. Dr. Felsner im WS07/08


Thomas El Khatib, Maximilian Werk
18. Mrz 2008
1
Inhaltsverzeichnis
1 Grundbegriffe 7
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Mengennotationen . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Zahlenmengen . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.4 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.5 Komposition von Abbildungen . . . . . . . . . . . . . . . . . 9
1.1.6 Identitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.7 Menge aller Abbildungen . . . . . . . . . . . . . . . . . . . 10
1.1.8 Produkte von Mengen . . . . . . . . . . . . . . . . . . . . . 11
1.2 quivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 quivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.4 Partitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Gruppen 13
2.1 Denitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Innere Verknpfung . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.3 Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.5 Symmetrische Gruppen . . . . . . . . . . . . . . . . . . . . . 16
2.1.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.7 Eigenschaften von Gruppen . . . . . . . . . . . . . . . . . . 17
2.1.8 Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.10 Untergruppenkriterium . . . . . . . . . . . . . . . . . . . . . 19
2.2 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2 Isomorphismus . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.3 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.4 Beispiele von Homomorphismen . . . . . . . . . . . . . . . . 20
2.2.5 Bild und Kern von Homomorphismen . . . . . . . . . . . . . 21
2.2.6 Faktorgruppe nach dem Kern und Homomorphiesatz . . . . . 21
2.2.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3 Ringe, Krper, Polynome 24
3.1 Denitionen: Ring und Krper . . . . . . . . . . . . . . . . . . . . . 24
3.1.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.3 Nullteilerfreiheit . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.4 Gegenbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.5 Unterringe . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.6 Ringhomomorphismen . . . . . . . . . . . . . . . . . . . . . 26
3.1.7 Krper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.8 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.9 Eigenschaften von Krpern . . . . . . . . . . . . . . . . . . . 26
2
3.1.10 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.11 Der Krper der komplexen Zahlen . . . . . . . . . . . . . . . 27
3.2 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.3 Polynomringe . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.4 Gradformel . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.5 Nullteilerfreiheit . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.6 Polynomdivision . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.8 Folgerungen, Nullstellen . . . . . . . . . . . . . . . . . . . . 35
3.2.9 Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . 36
3.2.10 Lemma von Bezout . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.11 Faktorpolynomringe . . . . . . . . . . . . . . . . . . . . . . 37
3.2.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4 Vektorrume 40
4.1 Denitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.1 Vektorrume . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.2 Weitere Eigenschaften . . . . . . . . . . . . . . . . . . . . . 40
4.1.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.4 Untervektorrume . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.5 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.6 Durchschnitte von Unterrumen sind Unterrume . . . . . . . 42
4.1.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.8 Vereinigung von Unterrumen ist kein Unterraum . . . . . . . 43
4.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.10 Lineares Erzeugnis . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.11 Lineare Unabhngigkeit . . . . . . . . . . . . . . . . . . . . 44
4.1.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.13 Charakterisierung der linearen Unabhngigkeit . . . . . . . . 45
4.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.1 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.2 Charakterisierung des Vektorraums durch eine seiner Basen . 46
4.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.4 Alternative Denitionen . . . . . . . . . . . . . . . . . . . . 47
4.2.5 Existenz einer Basis fr endlich erzeugbare Vektorrume . . . 48
4.2.6 Austauschlemma . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.7 Austauschsatz von Steinitz . . . . . . . . . . . . . . . . . . . 49
4.2.8 Alle Basen haben gleich viele Elemente . . . . . . . . . . . . 50
4.2.9 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.10 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.11 Dimension von Unterrumen . . . . . . . . . . . . . . . . . . 51
4.3 Unendlichdimensionale Vektorrume . . . . . . . . . . . . . . . . . . 51
4.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3.2 Halbordnungen . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.4 Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.5 Lemma von Zorn . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.6 Basisexistenzsatz fr beliebige Vektorrume . . . . . . . . . . 52
3
4.4 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4.2 Zeilenstufenform . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4.3 Kriterium fr lineare Unabhngigkeit . . . . . . . . . . . . . 54
4.4.4 Zeilenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.4.5 Elementare Zeilenumformungen . . . . . . . . . . . . . . . . 55
4.4.6 Elementare Zeilenumformungen sind zeilenraumerhaltend . . 55
4.4.7 Weitere Zeilenumformungen . . . . . . . . . . . . . . . . . . 55
4.4.8 Jede Matrix kann in Zeilenstufenform umgeformt werden . . 56
4.4.9 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.4.10 Transponierte Matrix . . . . . . . . . . . . . . . . . . . . . . 57
4.4.11 Symmetrische und schiefsymmetrische Matrizen . . . . . . . 58
4.4.12 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.4.13 Rechenregeln fr Transponation . . . . . . . . . . . . . . . . 58
4.5 Summen und direkte Summen . . . . . . . . . . . . . . . . . . . . . 58
4.5.1 Summe von Untervektorrumen . . . . . . . . . . . . . . . . 58
4.5.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5.3 Summe und Erzeugnis . . . . . . . . . . . . . . . . . . . . . 60
4.5.4 Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . 60
4.5.5 Direkte Summe . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.5.6 Existenz von komplementren Unterrumen . . . . . . . . . . 61
4.5.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 Lineare Abbildungen 62
5.1 Denitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.1.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 62
5.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.1.3 Lineare Abbildungen sind Vektorraumhomomorphismen . . . 63
5.1.4 Eigenschaften von linearen Abbildungen . . . . . . . . . . . 63
5.1.5 Komposition linearer Abbildungen sind linear . . . . . . . . . 64
5.1.6 Vektorrume der Homomorphismen . . . . . . . . . . . . . . 64
5.1.7 Menge der Endomorphismen . . . . . . . . . . . . . . . . . . 65
5.2 Bild, Faser, Kern . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.2.1 Denitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.2.2 Rang einer linearen Abbildung . . . . . . . . . . . . . . . . . 67
5.2.3 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . 67
5.2.4 Faserung eines Vektorraums . . . . . . . . . . . . . . . . . . 67
5.2.5 Afne Teilrume . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2.7 Charakterisierung von afnen Unterrumen . . . . . . . . . . 68
5.2.8 Dimension afner Unterrume . . . . . . . . . . . . . . . . . 69
5.2.9 Komplementre Unterrume und afne Unterrume . . . . . . 69
5.3 Dimensionsformel, Faktorrume und Homomorphiesatz . . . . . . . . 69
5.3.1 Dimensionsformel fr lineare Abbildungen . . . . . . . . . . 69
5.3.2 Faktorisierungssatz . . . . . . . . . . . . . . . . . . . . . . . 71
5.3.3 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3.4 Quotienten-/Faktorrume . . . . . . . . . . . . . . . . . . . . 72
5.3.5 Universelle Eigenschaft . . . . . . . . . . . . . . . . . . . . 73
5.3.6 Homomorphiesatz . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4
6 Lineare Gleichungssysteme 76
6.1 Begriffe und Denitionen . . . . . . . . . . . . . . . . . . . . . . . . 76
6.1.1 Lineares Gleichungssystem . . . . . . . . . . . . . . . . . . 76
6.1.2 Homogenes/inhomogenes System . . . . . . . . . . . . . . . 76
6.1.3 Lsungsraum . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.1.4 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.1.5 Matrizen denieren lineare Abbildungen . . . . . . . . . . . 76
6.1.6 Zeilen- und Spaltenrang . . . . . . . . . . . . . . . . . . . . 77
6.2 Lsen und Lsungsraum von linearen Gleichungssystemen . . . . . . 77
6.2.1 Charakterisierung des Lsungsraums eines LGS . . . . . . . 77
6.2.2 Zeilenrang = Spaltenrang . . . . . . . . . . . . . . . . . . . . 78
6.2.3 Kriterium fr die Lsbarkeit eines LGS . . . . . . . . . . . . 79
6.2.4 Elementare Zeilenumformungen sind lsungsraumerhaltend . 80
6.2.5 Lsungen eines linearen Gleichungssystem . . . . . . . . . . 80
6.2.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7 Lineare Abbildungen und Matrizen 82
7.1 Lineare Abbildungen entsprechen Matrizen . . . . . . . . . . . . . . 82
7.1.1 Satz von der linearen Fortsetzung . . . . . . . . . . . . . . . 82
7.1.2 Fundamentalsatz fr endlichdimensionale Vektorrume . . . . 83
7.1.3 Darstellungssatz . . . . . . . . . . . . . . . . . . . . . . . . 83
7.1.4 Hom(V,W) ist ein Vektorraum von Matrizen . . . . . . . . . . 84
7.1.5 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.2 Komposition und Matrixmultiplikation . . . . . . . . . . . . . . . . . 86
7.2.1 Matrixmultiplikation . . . . . . . . . . . . . . . . . . . . . . 86
7.2.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.2.3 Komposition und Matrixmultiplikation entsprechen einander . 86
7.2.4 Spezialflle der Matrizenmultiplikation . . . . . . . . . . . . 87
7.2.5 Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.2.6 Rechenregeln fr die Matrizenmultiplikation . . . . . . . . . 88
7.2.7 Matrizen bilden einen Ring . . . . . . . . . . . . . . . . . . . 89
7.2.8 Darstellungsmatrizen von Isomorphismen . . . . . . . . . . . 89
7.2.9 General linear group . . . . . . . . . . . . . . . . . . . . . . 90
7.2.10 Charakterisierung invertierbarer Matrizen . . . . . . . . . . . 91
7.2.11 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.2.12 Interessante Untergruppen der GL(n,K) . . . . . . . . . . . . 92
7.2.13 Koordinatensysteme . . . . . . . . . . . . . . . . . . . . . . 93
7.2.14 Transformationen zwischen Koordinatensystemen . . . . . . 93
7.2.15 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
7.2.16 Koordinatensysteme und Darstellung linearer Abbildungen . . 94
7.2.17 Darstellung der Komposition linearer Abbildungen . . . . . . 95
7.2.18 Transformation der Darstellungsmatrix bei Basiswechsel . . . 96
7.2.19 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.2.20 Zeilenrang = Spaltenrang die Zweite . . . . . . . . . . . . . . 97
7.2.21 Elementarmatrizen und Matrixumformungen . . . . . . . . . 98
5
8 Permutationen 100
8.1 Denitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
8.1.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . 100
8.1.2 Beispiel und Darstellungen . . . . . . . . . . . . . . . . . . . 100
8.1.3 Zyklenzerlegung . . . . . . . . . . . . . . . . . . . . . . . . 100
8.1.4 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.2 Zyklenstruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.2.1 Exkurs: Konjugierte Permutationen . . . . . . . . . . . . . . 102
8.3 Transpositionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
8.3.1 Benachbarte Transpositionen . . . . . . . . . . . . . . . . . . 104
8.3.2 Inversionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
9 Determinanten 105
9.1 Determinanten von Matrizen . . . . . . . . . . . . . . . . . . . . . . 105
9.1.1 Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9.1.2 Die Leibniz Formel . . . . . . . . . . . . . . . . . . . . . . . 106
9.1.3 Die Laplace Entwicklung . . . . . . . . . . . . . . . . . . . . 107
9.1.4 Wie efzient ist die Determinantenberechnung? . . . . . . . . 109
9.1.5 Determinanten und Volumina . . . . . . . . . . . . . . . . . 109
9.2 efziente Berechnung von Determinanten . . . . . . . . . . . . . . . 110
9.3 Elementar Zeilenumformungen . . . . . . . . . . . . . . . . . . . . . 110
9.4 Determinante der Transponierten . . . . . . . . . . . . . . . . . . . . 112
9.4.1 Matrixinversion und Determinanten . . . . . . . . . . . . . . 114
9.4.2 Determinante und Gleichungssysteme - Cramersche Regel . . 115
9.4.3 Determinate ohne Matrix . . . . . . . . . . . . . . . . . . . . 116
9.5 Anwendung der Determinanten in der Geometrie und diskreten Mathe-
matik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
9.5.1 Matroide - diskrete Verallgemeinerung von linearer Unabhn-
gigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
10 Codierungstheorie 118
10.1 Wiederholungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
10.2 Der Hamming Abstand . . . . . . . . . . . . . . . . . . . . . . . . . 119
10.2.1 Kugeln bezglich des Hamming Abstandes . . . . . . . . . . 119
10.3 Lineare Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
10.4 Generatormatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
10.5 Prfmatrix (Checkmatrix) . . . . . . . . . . . . . . . . . . . . . . . . 121
10.6 Hamming Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
10.6.1 Perfekte Codes . . . . . . . . . . . . . . . . . . . . . . . . . 124
10.6.2 Decodierung von Ham(3) . . . . . . . . . . . . . . . . . . . 124
10.7 Reed-Salomon-Codes . . . . . . . . . . . . . . . . . . . . . . . . . . 124
10.7.1 Ein konkreter RS-Code . . . . . . . . . . . . . . . . . . . . . 126
11 Bildquellen 127
6
1 Grundbegriffe
1.1 Mengen und Abbildungen
1.1.1 Mengennotationen
{ } \
{1, 3, 5, 7, 9}
. .
explizite Nennung
= {a N | a ungerade, a < 10}
. .
implizit durch Eigenschaften
1.1.2 Zahlenmengen
N, Z, Q, R, C
1.1.3 Rechenregeln
Seien A, B, C, N
i
..
verschiedene i von 1 bis n
X
A B = B A, A B = B A - kommutativ
(A B) C) = (A (B C)), (A B) C) = (A (B C)) - assoziativ

A
_

i2I
N
i
_
. .
N
1
\N
2
\...\N
n
=

i2I
(A N
i
)
A
_
_
i2I
N
i
_
=
_
i2I
(A N
i
)
distributiv
1.1.4 Abbildungen
Denition 1.1.
f : X Y
x f(x)
bedeutet: f ordnet jedem x X ein y = f(x) Y zu.
Ist A X, so ist das Bild von A: f(A) = {y Y | x a . f(x) = y}
Ist B Y , so ist das Urbild von B: f
1
(B) = {x Y | f(x) B}
injektiv: Keine zwei Elemente von X werden auf dasselbe Element abbgebildet
(engl. one-to-one).
surjektiv: Jedes Element aus y ist ein f(x) (liegt im Bild von X) (engl. onto).
bijektiv: injektiv + surjektiv
7
Lemma 1.1.4.1. Seien X, Y endlich, f : X Y eine Abbildung. Es gilt
(a) f ist injektiv == |X| = |f(X)|.
(b) f ist surjektiv == f(X) = Y == |f(X)| = |Y |.
Beweis. Seien X, Y endlich, f : X Y eine Abbildung.
a) Illustration
Es muss gelten |X| = |Pfeile|. Injektivitt heit nun, dass auf kein Element 2
oder mehr Pfeilspitzen zeigen, also gilt |Pfeilspitzen| = |f(x)|. Zusammen folgt
|X| = |Pfeile| = |Pfeilspitzen| = |f(X)|
b) X
Satz 1.1.1. Sei X eine endliche Menge und f : X X eine Abbildung, dann ist
quivalent
(a) f ist injektiv
(b) f ist surjektiv
(c) f ist bijektiv
Beweis. (a) =(b)
Aus dem Lemma folgt:
f ist injektiv == |X| = |f(X)| == |f(X)| = |X| (= |Y |) == f ist surjektiv
Aus (a) und (b) folgt direkt (c).
Achtung. Wenn X unendlich ist, dann wird der Satz falsch.
Es gibt surjektive Abbildungen f : R R
2
, z.B.
x = 0, x
1
x
2
x
3
. . .
_
y
x
= 0, x
1
x
3
x
5
. . .
z
x
= 0, x
2
x
4
x
6
. . .
(Darstellung von reellen Zahlen als unendliche p-adische Brche ist nicht eindeutig!)
8
1.1.5 Komposition von Abbildungen
Denition 1.2. Seien f : X Y, g : Y Z dann heit
g f : X Z
x (g f)(x) = g(f(x))
die Komposition g nach f.
X
f
Y
g
Z
X
gf
Z
1.1.6 Identitt
Denition 1.3. Eine spezielle Abbildung ist die wie folgt denierte Identitt id
X
auf
einer Menge X
id
X
: X X
x x
Fr die Identitt gilt
f id
X
= id
Y
f = f
Lemma 1.1.6.1. Sei f : X Y eine Abbildung.
(a) f ist injektiv == g : Y X mit g f = id
X
(b) f ist surjektiv == g : Y X mit f g = id
Y
(c) f ist bijektiv == g : Y X mit g f = id
X
.f g = id
Y
Beweis. Sei f : X Y eine Abbildung.
(a) Illustration
Von allen Elementen aus Y , auf die ein Pfeil zeigt, geht der Pfeil fr die Ab-
bildung g auf demselben Weg zurck. Man dreht die Pfeile also praktisch um.
Alle Elemente von Y , auf die kein Pfeil zeigt, werden durch g auf ein beliebiges
Element von X abgebildet.
In der Hinrichtung ist zu zeigen: [ g Y X : g f = id
X
] =f ist injektiv.
Wir zeigen: f ist nicht injektiv =, g Y X : g f = id
X
.
Wenn f nicht injektiv ist, gibt es zwei Elemente aus X, die auf dasselbe Element
aus Y abgebildet wird, also
x
1
, x
2
X : x
1
,= x
2
. f(x
1
) = f(x
2
) = y Y
9
Wenn g(y) = x
1
, dann ist (g f)(x
2
) = x
1
,= x
2
, also ist g ,= id
X
.
Wenn g(y) = x
2
, dann ist (g f)(x
1
) = x
2
,= x
2
, also ist g ,= id
X
.
Wenn g(y) = x
3
, x
3
,= x
1
, x
3
,= x
2
, dann ist (g f)(x
2
) = x
3
,= x
2
, also ist
g ,= id
X
.
Fr jedes g gibt es ein Element x X, das durch g f nicht auf sich selbst
abgebildet wird, also gibt es kein g mit g f = id
X
.
Die Rckrichtung ist klar: Da g eine Abbildung ist, wird f(x
1
) = f(x
2
) dasselbe
Element x
1
= x
2
zugeordnet.
(b) Illustration
Man sucht fr jedes Element in Y einen Pfeil aus, der auf es zeigt, und kehrt es
um. Also whle x
y
f
1
({y}) und deniere: g(y) = x
y
, dann gilt (f g)(y) =
f(x
y
) = y, also insgesamt f g = id
Y
.
Bemerkung. Man bentigt hierbei das Auswahlaxiom.
Wenn f nicht surjektiv ist, dann y
0
Y \ x X : f(x) ,= y
0
. Wenn
g(y
0
) = x
0
X, dann folgt (f g)(y
0
) = f(x
0
) ,= y
0
, also kann f g nicht
id
Y
sein. Es gibt also kein g mit dieser Eigenschaft.
Die Rckrichtung ist auch hier klar: Da g eine Abbildung ist, wird jedem y Y
ein x X zugeordnet, sodass f(x) = y gilt.
(c) Illustration
Man dreht die Pfeile einfach um.
Der formale Beweis sttzt sich auf (a) und (b).
1.1.7 Menge aller Abbildungen
Wie viele Abbildungen von X nach Y gibt es?
Wenn X, Y endliche Mengen sind, dann kommt es nur auf die Anzahl der Ele-
mente von X und Y an. Sei [n] = {1, 2, 3, . . . , n} fr ein n N. Dann gibt es m
n
Abbildungen von [n] nach [m].
10
Denition 1.4. Daraus ergibt sich die symbolische Schreibweise
Y
X
:= {f : X Y }
fr die Menge aller Abbildungen von X nach Y .
1.1.8 Produkte von Mengen
Denition 1.5. Fr zwei Mengen X, Y wird das kartesische Produkt von X mit Y
deniert als
X Y := {(x, y) | x X, y Y }
Intutiv wird deniert
X
n
:= X X . . . X
. .
n-mal
(Wir lassen die Klammern weg.)
= {(x
1
, x
2
, . . . , x
n
) | x
i
X \ i = 1, . . . , n}
=
_
(x
i
)
i2[n]
: x
i
X
_
= {f : [n] X}
1.2 quivalenzrelationen
1.2.1 Relationen
Denition 1.6. Eine Relation R ist eine Teilmenge von X Y , also
R X Y
Man schreibt xRy um zu kennzeichnen: (x, y) R.
1.2.2 quivalenzrelationen
Denition 1.7. quivalenzrelationen sind Relationen X X mit den Eigen-
schaften
A1 Reexivitt: x x \ x X,
A2 Symmetrie: x y =y x \ x, y X und
A3 Transitivitt: x y . y z =x z \ x, y, z X.
1.2.3 Beispiele
= - Gleichheitsrelation auf einer Menge
X als eine Gruppe von Personen, - Gleichaltrigkeit
11
1.2.4 Partitionen
Denition 1.8. Eine Partition einer Menge X ist eine Zerlegung von X in paarweise
disjunkte Teilmengen (X
i
)
i2I
, d.h.


i2I
X
i
= X
X
i
X
j
= O i, j I, i ,= j
X
i
,= O \ i I
Satz 1.2.1. Sei X eine Menge. Partition von X und quivalenzrelationen entsprechen
einander.
Beweis. Sei (X
i
)
i2I
eine Partition. Wir denieren:
x y == i I : x X
i
. y X
i
Zu zeigen: ist eine quivalenzrelation:
A1 Sei x X, dann gilt x X
i
=x X
i
. X
A2 Seien x, y X, dann gilt (x X
i
. y X
i
) =(x X
i
. y X
i
). X
A3 Seien x, y, z X und gelte (x X
i
. y X
i
) . (y X
j
. z X
j
). Daraus
folgt wegen der Disjunktheit der Klassen X
i
= X
j
, also x X
j
. z X
j
. X
Denition 1.9. Sei andererseits eine quivalenzrelation auf X, dann wird deniert:
[x] = {y X | x y}
ist die quivalenzklasse von x. x wird Reprsentant der Klasse genannt.
Zu zeigen: {[x] | x X} ist eine Partition von X.
_
x2X
[x] = X X
Seien x, z X mit x ,= z. Es gilt entweder: x z und damit x y \ y [z] und
z y \ y [x], also [x] = [z]; oder es gilt x , z, also [x] [z] = O: Angenommen
der Schnitt wre nicht leer, dann gbe es ein y, fr das gilt x y und y z. Wegen
der Transitivitt gilt dann auch x z, Widerspruch.
Die Menge der quivalenzklassen bildet also eine Partition auf X.
12
2 Gruppen
2.1 Denitionen
2.1.1 Innere Verknpfung
Denition 2.1. Eine Gruppe ist ein Paar (G, ), wobei G eine Menge und eine (in-
nere zweistellige) Operation auf G ist, also eine Abbildung GG G.
Statt ((g, h)) = r fr drei Elemente g, h, r G schreiben wir g h = r (Inx-
Notation).
2.1.2 Beispiele

: X
X
X
X
X
X
(f, g) f g
Verknpfung von Abbildungen von X nach X ((X
X
, ) ist keine Gruppe!)

+ : Z Z Z
(a, b) a +b
2.1.3 Gruppe
Denition 2.2. (G, ) ist eine Gruppe, wenn folgende Gesetze gelten:
G1 Assoziativgesetz: (a b) c = a (b c) \ a, b, c G
G2 Existenz eines (links-)neutralen Elements: e G : e a = a \ a A
G3 Existenz von (links-)inversen Elementen: a
1
G : a
1
a = e \ a A.
(G, ) ist kommutative Gruppe (abelsche Gruppe), wenn gilt:
a b = b a \ a, b G
2.1.4 Beispiele
(Z, +) ist eine Gruppe:
neutrales Element: 0
Inverses von a Z: a
(N, +) ist keine Gruppe, weil 1 kein Inverses hat.
(Z, ) ist keine Gruppe, weil nicht assoziativ ist.
(Q, +), (R, +) (Z, +).
(Q
+
, ) ist ein Gruppe:
neutrales Element: 1
13
Inverses von a Q
+
:
1
a
({1, 1} , ) ist eine Gruppe. Gruppentafel
1 1
1 1 1
1 1 1
Es gilt {1, 1} Q

, wodurch sich die Assoziativitt von (Q

, ) ber-
trgt.
Wie man aus der Tafel ablesen kann, gilt: 1 (1) = (1), 1 1 = 1, also
ist 1 neutrales Element.
Wie man aus der Tafel ablesen kann, gilt:
(1) (1) = 1 =(1)
1
= (1)
1 1 = 1 =1
1
= 1
D
4
- Diedergruppe der Ordnung 4, Symmetriegruppe des Quadrats
Die Elemente dieser Gruppe sind die Symmetrien, d.h. Selbstabbildungen des
Quadrats:
Drehungen: d
a
- Drehung der Ecke 0 auf die Ecke a:
d
0
- Drehung um 90

(in mathematisch positive Richtung)


d
1
- Drehung um 180

d
2
- Drehung um 270

d
3
- Drehung um 360

(Achsen-)Spiegelungen: s
a
- Spiegelung der Ecke 0 auf die Ecke a: s
0
, s
1
, s
2
, s
3
Jede Symmetrie kann man als Permutation der Ecken beschreiben, z.B.
d
1
=

0 1 2 3
1 2 3 0

Die Operation ist die Hintereinanderausfhrung der Abbildungen.


14
D
6
- Diedergruppe der Ordnung 6, Symmetriegruppe des regelmigen Sechs-
ecks
Behauptung: D
6
= ({d
a
, s
a
| a {0, . . . , 5}} , ) ist eine Gruppe.
Beweis. Seien die Bezeichnungen wie oben gegeben. Im Folgenden wird in den
Indizes immer modulo 6 gerechnet.
Assoziativitt: Verknpfungen von Abbildungen sind immer assoziativ.
Einheit: d
0
ist die Identitt (alle Ecken werden auf sich selbst gedreht).
Inverse:
d
1
a
= d
a
, denn die Umkehrung einer Drehung ist die Drehung um
denselben Winkel in die Gegenrichtung.
s
1
a
= s
a
, denn die Umkehrung einer Spiegelung ist die erneute Spie-
gelung an derselben Achse.
Abgeschlossenheit: Die Auswertung von 144 Produkten ist zu aufwndig,
weswegen man systematisch vorgeht:
1. d
a
d
b
= d
a+b
- Klar, Hintereinanderausfhrung von Drehung ist eine
Drehung um die Summe der einzelnen Winkel.
2. d
a
s
0
= s
a
- Eine Spiegelung s
a
kehrt generell die Durchlaufrichtung
der Ecken um und lsst die Zhlung bei a beginnen. s
0
kehrt lediglich
die Durchlaufrichtung um, die anschlieende Drehung d
a
dreht eigent-
lich a auf 0, wegen der umkehrten Reihenfolge dreht sie aber a auf
0, lsst die Zhlung bei immer noch umgekehrter Reihenfolge also bei
a beginnen.
3. s
0
d
a
= s
a
- d
a
dreht 0 auf a, s
0
kehrt die Durchlaufreihenfolge
um, also liegt 0 nun auf der Ecke, die am Anfang a hie.
4. s
0
s
0
= d
0
- Klar.
15
Unter Verwendung von 1.-4. kann man nachrechnen:
d
a
s
b
= d
a
(d
b
s
0
) = (d
a
d
b
) s
0
= d
a+b
s
0
= s
a+b
s
a
d
b
= (d
a
s
0
) d
b
= d
a
(s
0
d
b
) = d
a
s
b
= s
ab
s
a
s
b
= s
a
(d
b
s
0
) = (s
a
d
b
) s
0
= s
ab
s
0
?
= d
ab
2.1.5 Symmetrische Gruppen
Denition 2.3. Sei X eine Menge. Sym(X) ist die Menge aller bijektiven Abbildun-
gen von X nach X mit der Verknpfung als Operation. Die Elemente Sym(X)
heien Permutationen.
Korollar. Sym(X) ist eine Gruppe, genannte symmetrische Gruppe.
Beweis. erfolgt durch Nachweis der Gruppenaxiome:
G1 Verknpfung von Abbildungen ist immer assoziativ.
Beweis. Seien , , Abbildungen von X nach Y und i X. Dann gilt
(() )(i) = ()((i)) = (((i))) = (()(i)) = (())(i)
G2 id
X
ist das neutrale Element, denn es gilt fr ein Sym(X)
id
X
=
G3 Zu jeder bijektiven Abbildung f gibt es laut Lemma 1.1.6.1 eine Abbildung g :
X X (also g Sym(X)) mit g f = id
X
.
Ab S
3
sind symmetrische Gruppen nicht mehr kommutativ, z.B. ist

1 2 3
1 3 2

1 2 3
2 1 3

1 2 3
3 1 2

aber

1 2 3
2 1 3

1 2 3
1 3 2

1 2 3
2 3 1

Satz. S
n
hat genau n! Elemente.
Beweis. Es gibt n! Permutationen von n Elementen.
16
2.1.6 Beispiel
Sei X = [5].
Eine bijektive Abbildung [5] [5] knnen wir in 2-Zeilennotation beschreiben.
Seien
=

1 2 3 4 5
4 2 1 5 3

, =

1 2 3 4 5
4 5 1 2 3

Dann ist
=

1 2 3 4 5
5 3 4 2 1

Das neutrales Element ist


id
[5]
=

1 2 3 4 5
1 2 3 4 5

Das Inverse von


=

1 2 3 4 5
z
1
z
2
z
3
z
4
z
5

ist

1
=

z
1
z
2
z
3
z
4
z
5
1 2 3 4 5

2.1.7 Eigenschaften von Gruppen


Satz 2.1.1. Sei (G, ) eine Gruppe.
i) Das neutrale Element ist eindeutig.
ii) Das (links-)neutrale Element ist auch rechtsneutral, d.h. fr alle g Ggilt eg =
g e = g.
iii) Die inversen Elemente sind eindeutig.
iv) Das (links-)inverse Element eines Elementes g G ist auch rechtsinvers, d.h. es
gilt g
1
g = g g
1
= e.
v) Fr a, b G gilt (a b)
1
= b
1
a
1
.
vi) Fr alle a G: (a
1
)
1
= a.
vii) Fr alle a, b, c G: a b = a c = b = c.
Beweis. Sei (G, ) eine Gruppe und a, b, c G und e neutrales Element von G.
ii) Sei b = a
1
und c = b
1
, d.h. nach G3 b a = e und c b = e. D.h.
c e = c (b a)
G1
= (c b) a = e a
G2
= a
=a e = (c e) e
G1
= c (e e)
G2
= c e = a
i) Angenommen es gibt ein weiteres neutrales Element e, d.h. fr alle a G gilt
e a = a. Dann gilt auch
e
G2
= e e
ii)
= e e = e
17
iv) Sei b = a
1
, d.h. nach G3 b a = e. Dann gilt
b a = e =
b (b a) = b e = e b = (b a) b = b (a b) =
b
1
(b (b a)) = b
1
(b (a b)) =
(b
1
b) (b a) = (b
1
b) (a b) =
e (b a) = e (a b) =
b a = a b
D.h. aber a a
1
= a
1
a = e.
iii) Angenommen b sei auch inverses Element von a, also b a = e. Dann gilt auch
(b a) a
1
= e a
1
G1
=
b (a a
1
) = e a
1
G2
=
b (a a
1
) = a
1
iv)
=
b e = a
1
ii)
=
b = a
1
v) Es gilt
(a b) (b
1
a
1
)
G1
= (a (b b
1
)) a
1
iv)
= (a e) a
1
ii)
= a a
1
iv)
= e
Weil es nach iii) nur genau ein inverses Element zu a b gibt, gilt (a b)
1
=
b
1
b.
vi) Nach iv) gilt a a
1
= e, also ist nach G3 a invers zu a
1
, also ist nach iii)
(a
1
)
1
= a.
vii) Es gilt
a b = a c =
a
1
(a b) = a
1
(a c)
G1
=
(a
1
a) b = (a
1
a) c
G3
=
e b = e c
G2
=
b = c
Satz. Jede Gruppe mit maximal vier Elementen ist abelsch.
Beweis. Sei (G, ) eine Gruppe.
Beweis durch Kontraposition: Wenn G nicht abelsch ist, dann hat G fnf oder mehr
Elemente.
Sei also G nicht abelsch, d.h. a, b G mit a b ,= b a. Es gengt zu zeigen:
e, a, b, a b, b a sind paarweise verschieden.
18
i) a b ,= b a nach Voraussetzung.
ii) a ,= e, b ,= e:
Angenommen a = e, dann wrde gelten: a b = e b
G2
= b
G2
= b e = b a,
Widerspruch zu i). Analoges bei b = e.
iii) a b ,= a:
Angenommen ab = a, dann gilt auch a
1
ab = a
1
a, nach G3: eb = e,
also nach G2 b = e, Widerspruch zu ii).
iv) Analoges fr a b ,= b.
v) a ,= b: Angenommen a = b, dann wre auch a b = a a = b a, Widerspruch
zu i).
vi) a b ,= e:
Angenommen ab = e, dann wre nach 2.1.7. iv) auch ba = e, also ab = ba,
Widerspruch zu i).
vii) Analog zu iii)-vi) folgen die Ungleichungen fr b a.
Da alle fnf Elemente paarweise verschieden sind, hat G mindestens diese fnf Ele-
mente.
2.1.8 Untergruppen
Denition 2.4. Ist (G, ) eine Gruppe und H G, dann ist (H, ) eine Untergruppe
von G, wenn (H, ) eine Gruppe ist.
2.1.9 Beispiel
(Z, +) ist eine Untergruppe von (Z, +).
Untergruppen des D
6
:
({d
a
| a {0, . . . , 5}} , ) ist eine Untergruppe, genannt die zyklische Un-
tergruppe der Ordnung 6.
({s
a
, d
0
} , )ist eine Untergruppe fr a {0, . . . , 5}.
D
6
ist Untergruppe von S
6
= Sym({0, . . . , 5}).
2.1.10 Untergruppenkriterium
Proposition 2.1.1. Wenn (G, ) eine Gruppe ist und H G, dann ist (H, ) eine
Untergruppe, wenn gilt
UG1 e H (quivalent zu H ,= O)
UG2 Wenn h H, dann ist auch h
1
H.
UG3 Mit h, i H ist auch h i H.
Beweis. Sei (G, ) eine Gruppe und H G. Wegen UG3 ist H unter abgeschlossen.
Weiterhin gilt
19
G1 Assoziativitt wird vererbt: Wenn die Elemente aus H bezglich nicht assozia-
tiv wren, wren sie auch in G bezglich nicht assoziativ.
G2 Neutrales Element ist dasselbe wie in G, das nach UG1 auch in H liegt.
G3 Die inversen Elemente sind dieselben wie in G und nach UG2 auch in H.
2.2 Homomorphismen
2.2.1 Denition
Denition 2.5. Seien (G, ) und (H, ) Gruppen. Eine Abbildung ' : G H ist ein
Gruppenhomomorphismus, wenn gilt
'(a b) = '(a) '(b) \ a, b G
2.2.2 Isomorphismus
Denition 2.6. Ist ' bijektiv, dann ' ein Isomorphismus.
2.2.3 Eigenschaften
Satz 2.2.1. Wenn ' : (G, ) (H, ) ein Homomorphismus ist, dann gilt
i) '(e
G
) = e
H
ii) '(a
1
) = '(a)
1
Beweis. ' : (G, ) (H, ) ein Homomorphismus, dann gilt
i) '(a) e
H
= '(a) = '(a e
G
) = '(a) '(e
G
), gekrzt: e
H
= '(e
G
).
ii) '(a) '(a)
1
= e
H
i)
= '(e
G
) = '(a a
1
) = '(a) '(a
1
), gekrzt:
'(a)
1
= '(a
1
).
2.2.4 Beispiele von Homomorphismen
1. (H, ) eine Untergruppe von (G, ), dann ist die Einbettung
' : H G
'(h) = h \ h H
ein Homomorphismus.
2.
' : (Z, +) (R
+
, )
a exp(a)
ist ein Homomorphismus, denn fr beliebige a, b Z gilt nach Funktionalglei-
chung der Exponentialfunktion
'(a +b) = exp(a +b) = exp(a) exp(b)
20
3.
' : (Z, +) (Z, +)
a m a
ist ein Homomorphismus, denn fr beliebige a, b Z gilt
'(a +b) = m (a +b)
D
= m a +m b
2.2.5 Bild und Kern von Homomorphismen
Denition 2.7. Sei ' : G H ein Gruppenhomomorphismus. Dann wird deniert
im(') := {h H | g G : '(g) = h} - Bild von '
ker(') := {g G| '(g) = e
H
} - Kern von '
Satz 2.2.2. Sei ' : G H ein Gruppenhomomorphismus, dann gilt
a) im(') ist eine Untergruppe von H.
b) ker(') ist eine Untergruppe von G.
Beweis. Seien also (G, ) und (H, ) Gruppen und ' : G H ein Gruppenhomo-
morphismus.
a) UG1 e
H
im('), weil gilt '(e
G
) = e
H
.
UG2 Sei h im('), d.h. g G : '(g) = h. Dann gilt '(g
1
) = '(g)
1
=
h
1
, also h
1
im(').
UG3 Seien h
1
, h
2
im('), d.h. g
1
, g
2
G : '(g
1
) = h
1
, '(g
2
) = h
2
. Dann
gilt:
'(g
1
g
2
) = '(g
1
) '(g
2
) = h
1
h
2
also ist h
1
h
2
im(').
b) UG1 e
G
ker('), weil gilt '(e
G
) = e
H
.
UG2 Sei g ker('), d.h. '(g) = e
H
. Dann gilt '(g
1
) = '(g)
1
= e
1
H
=
e
H
, also g
1
ker(').
UG3 Seien g
1
, g
2
im('), d.h. '(g
1
) = '(g
2
) = e
H
. Dann gilt:
'(g
1
g
2
) = '(g
1
) '(g
2
) = e
H
e
H
= e
H
also ist g
1
g
2
ker(').
2.2.6 Faktorgruppe nach dem Kern und Homomorphiesatz
Sei ' : (G, ) (H, ) ein Gruppenhomomorphismus.
Auf G denieren wir eine Relation a
'
b = '(a) = '(b).
'
ist eine qui-
valenzrelation (weil sie ber die Gleichheit deniert ist, die bekanntermaen quiva-
lenzrelation ist).
Diese quivalenzrelation induziert eine Partition von Gin Klassen. Die Klasse von
a bezeichen wir mit [a] = {b G| '(a) = '(b)}.
21
Auf den Klassen wird die Operation deniert: [a] [b] = [a b].
Die Operation ist wohldeniert (reprsentantenunabhngig).
Beweis. Seien [a] = [a
0
] und [b] = [b
0
]. Es gilt
[a] [b] := [a b]
= {g G| '(g) = '(a b)}
= {g G| '(g) = '(a) '(b)}
= {g G| '(g) = '(a
0
) '(b
0
)}
= {g G| '(g) = '(a
0
b
0
)}
= [a
0
b
0
] = [a
0
] [b
0
]
Satz 2.2.3. (Homomorphiesatz)
Wenn ' : (G, ) (H, ) ein Gruppenhomomorphismus ist, dann gilt G/ker ' :=
({[a] | a G} , ) ist eine Gruppe und
' : G/ker ' im',
'([a]) = '(a)
ist ein Isomorphismus, sodass das Diagramm kommutiert:
also G/ker ' und im' isomorph (im Wesentlichen gleich) sind.
Beweis. Sei also ' : (G, ) (H, ) ein Gruppenhomomorphismus und G/ker ' wie
oben deniert.
i) Die Gruppeneigenschaften von (G/ker ', ) folgen im Grunde direkt aus deren
Gltigkeit in (G, ):
G/ker ' ist ber abgeschlossen, denn seien [a], [b] G/ker ' beliebig,
dann gilt
[a] [b] = [a b] G/ker '
weil a b G.
22
G1 Fr [a], [b], [c] G/ker ' gilt
([a] [b]) [c] = [a b] [c]
= [(a b) c]
= [a (b c)]
= [a] [b c]
= [a] ([b] [c])
G2 [e
G
] ist neutrales Element der Struktur, denn es gilt fr alle [a] G/ker '
[e
G
] [a] = [e
G
a] = [a]
G3 Das Inverse von [a] G/ker ' ist [a
1
], denn es gilt
[a
1
] [a] = [a
1
a] = [e
G
]
ii) ' ist ein Homomorphismus, denn es gilt fr beliebige [a], [b] G/ker '
'([a] [b]) = '([a b]) = '(a b) = '(a) '(b) = '([a]) '([b])
iii) ' ist bijektiv:
' ist injektiv: Seien [a], [b] G/ker ' mit '([a]) = '([b]), d.h. aber
'(a) = '(b), also [a] = [b].
' ist surjektiv: Sei y im', d.h. a G : '(a) = y, also '([a]) = y.
2.2.7 Beispiele

' : (D
6
, ) (Z
2
, +)
'(d
a
) = 0, '(s
a
) = 1 \ a {0, . . . , 5}
ist ein Homomorphismus, denn es gilt fr beliebige a, b {0, . . . , 5}.
'(d
a
d
b
) = '(d
a+b
) = 0 = 0 + 0 = '(d
a
) +'(d
b
)
'(d
a
s
b
) = '(s
a+b
) = 1 = 0 + 1 = '(d
a
) +'(s
b
)
'(s
b
d
a
) = '(s
ab
) = 1 = 1 + 0 = '(s
b
) +'(d
a
)
'(s
a
s
b
) = '(d
ab
) = 0 = 1 + 1 = '(s
a
) +'(s
b
)
' ist surjektiv: im(') = Z
2
.
ker(') = {d
a
| a {0, . . . , 5}} ist eine Untergruppe von D
6
.
Nach dem Homomorphisatz ist D/ker ' isomorph zu Z
2
.
Es ist (Z
m
, +) = ({[i] : i {0, . . . , m1}} , +
m
) die Restklassengruppe mo-
dulo m. Die in der Denition verwendeten i heien kanonische Reprsentanten
der Klassen.
' : Z Z
m
i [i]
ker(') = [0] = {x Z | y Z : x = m y} = m Z, also gilt nach Homomorphi-
satz Z/mZ

= Z
m
.
23
3 Ringe, Krper, Polynome
3.1 Denitionen: Ring und Krper
3.1.1 Ringe
Denition 3.1. (R, +, ) ist ein Ring, wenn gilt
R1 (R, +) ist eine abelsche Gruppe.
R2 ist eine assoziative Operation R R R.
R3 Es gelten die Distributivgesetze fr beliebige a, b, c R:
a (b +c) = a b +a c
(a +b) c = a c +b c
(R, +, ) heit kommutativ, wenn fr beliebige a, b R gilt: a b = b a.
(R, +, ) ist ein Ring mit Eins, wenn 1 R mit 1 a = a 1 = a.
Bemerkung. Ist R ein Ring, so bezeichnet man das neutrale Element bezglich + mit
0.
Es gilt: 0 a = a 0 = 0.
Beweis.
a 0 = a (0 + 0)
D
= a 0 +a 0 =0 = a 0
0 a = 0 folgt analog.
3.1.2 Beispiele
1. (Z, +, ) ist ein kommutativer Ring mit Eins.
2. (R, +, ) ist ein kommutativer Ring mit Eins.
3. Sei R = {f : [0, 1] R} mit den Operationen + und , die wie folgt deniert
sind
(f +g)(x) := f(x) +g(x) \ x [0, 1]
(f g)(x) := f(x) g(x) \ x [0, 1]
(R, +, ) ist ein kommutativer Ring mit Eins. Aber es gibt nicht fr alle Elemente
von (R, +, ) multiplikative Inverse.
4. (Z
m
, +, ) ist ein kommutativer Ring mit Eins.
5. (2Z, +, ) ist ein kommutativer Ring ohne Eins, denn 1 , 2Z.
6. (R
nn
, +, ) - der Ring der quadratischen reellen Matrizen - ist ein Ring mit
Eins, wobei
R
nn
:=
_

_
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
| a
ij
R \ i, j = 1, . . . , n
_

_
=
_
(a
ij
)
i,j=1,...,n
| a
ij
R \ i, j = 1, . . . , n
_
24
und die Addition komponentenweise:
(a
ij
)
i,j=1,...,n
+ (b
ij
)
i,j=1,...,n
= (a
ij
+b
ij
)
i,j=1,...,n
und die Multiplikation wie folgt deniert ist
(a
ij
)
i,j=1,...,n
(b
ij
)
i,j=1,...,n
=
_
n

k=1
a
ik
b
kj
_
i,j=1,...,n
Dann ist (0)
i,j=1,...,n
das neutrale Element der Multiplikation, entsprechend
(a
ij
)
i,j=1,...,n
das additive Inverse zu (a
ij
)
i,j=1,...,n
.
_
_
_
_
_
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
_
_
_
_
_
ist das neutrale Element der Multiplikation.
Der Ring ist ab n = 2 nicht kommutativ, denn es gilt beispielsweise

1 1
0 1

1 0
1 1

2 1
1 1

,=

1 1
1 2

1 0
1 1

3.1.3 Nullteilerfreiheit
Denition 3.2. Sei (R, +, ) ein Ring. R heit nullteilerfrei, falls gilt
a b = 0 =a = 0 . b = 0 \ a, b R
3.1.4 Gegenbeispiele
(R
22
, +, ) ist nicht nullteilerfrei, denn es gilt

1 0
0 0

0 0
0 1

0 0
0 0

(Z
6
, +, ) ist nicht nullteilerfrei, denn es gilt
[2] [3] = [2 3] = [6] = [0]
(R
R
, +, ) ist nicht nullteilerfrei, denn fr
f(x) :=
_
1, x = 1
0, x ,= 1
g(x) :=
_
0, x = 1
1, x ,= 1
gilt (f g)(x) = 0 \ x R.
3.1.5 Unterringe
Denition 3.3. U ist ein Unterring von (R, +, ), wenn (U, +) Untergruppe von
(R, +) und : U U U abgeschlossen ist.
25
3.1.6 Ringhomomorphismen
Denition 3.4. ' : (R, +, ) (S, , ) ist ein Ringhomomorphismus, wenn gilt
'(a +b) = '(a) '(b)
'(a b) = '(a) '(b)
3.1.7 Krper
Denition 3.5. (K, +, ) ist ein Krper, wenn gilt
K1 (K, +) ist eine abelsche Gruppe.
K2 (K

, ) ist eine abelsche Gruppe.


K3 Distributivgesetz, d.h. fr alle a, b, c K gilt
a (b +c) = a b +a c
3.1.8 Notation
0 - neutrales Element von (K, +)
1 - neutrales Element von (K, )
a - Inverses von a in (K, +)

1
a
= a
1
- Inverses von a in (K

, )
3.1.9 Eigenschaften von Krpern
Satz. Sei (K, +, ) ein Krper. Es gilt
i) 0 ,= 1, weil 1 K

und 0 , K

.
ii) a b = 0 =a = 0 . b = 0, weil (K

, ) abgeschlossen ist (Nullteilerfreiheit).


iii) a (b) = (a b), denn es gilt
ab+a(b)
D
= a(b+(b)) = a0 = 0 = ab+((ab)) =a(b) = (ab)
iv) (a) (b) = a b, folgt aus iii).
3.1.10 Beispiele
1. (R, +, ) ist ein Krper.
2. (Q, +, ) ist ein Krper.
3. (Z, +, ) ist kein Krper, nur 1 und 1 habe multiplikative Inverse.
4. Der 3. Beispielring ist kein Krper, auch hier fehlen Inverse.
5. (C, +, ) ist ein Krper.
6. (Z
2
, +, ) ist ein Krper.
26
3.1.11 Der Krper der komplexen Zahlen
Motivation N fehlt bezglich + die Inversen, also erweitert man die Menge der na-
trlichen Zahlen auf die Menge der ganzen Zahlen Z. Diesen wiederum die multipli-
kativen Inversen, also konstruiert man Q. (Q, +, ) ist zwar ein Krper, man kann aber
gewisse Gleichungen nicht in ihm lsen, z.B. x
2
= 2. Mit Hilfe von Cauchy-Folgen,
Dedekindschen Schnitten, Intervallschachtelungen oder hnlichen Objekten/Verfahren
vervollstndigt man Q zu R (siehe Analysis).
Jedoch gibt es immer noch Gleichungen, die keine Lsung in R haben, z.B. x
2
= 1.
Also deniert man eine neue Zahl i als eine Lsung ebendieser Gleichung x
2
= 1.
Dann ist i
2
= 1 und (i)
2
= 1, wodurch man die Anordnung des Krpers verliert.
Nun ist jede quadratische Gleichung lsbar in C, d.h. z C : z
2
+pz +q = 0.
Denition 3.6. Die Menge der komplexen Zahlen ist deniert als
C := {a +b i | a, b R}
Jede komplexe Zahl z hat also die Gestalt z = a+b i fr a, b R. a heit der Realteil
von z, man schreibt Re(z) = a, und b Imaginrteil, also Im(z) = b.
Wie man (relativ) leicht nachprfen kann, ist (C, +, ) ein Krper (siehe 2. Analysis
bungsblatt, 3. Aufgabe).
Geometrische Interpretation Der Zahlenstrahl der reellen Zahlen wird zur Gauschen
Zahlenebene:
Man kann also sagen
C

= R
2
Und man schreibt
z = a +bi = r cos ' +i r sin '
wobei r die Lnge des Pfeils ist, nach Pythagoras also
r =
_
a
2
+b
2
=: |z|
(a, b) heien die kartesischen Koordinaten von z und (r, ') die Polarkoordinaten
von z.
27
Rechnen mit komplexen Zahlen Es gilt
fr die Addition:
(a +bi) + (c +di) = (a +c) + (b +d)i
Veranschaulichung
und fr die Multiplikation
(a +bi) (c +di) = (a c b d) + (a d +b c)i
bzw.
(r
1
cos '
1
+i r
1
sin '
1
) (r
2
cos '
2
+i r
2
sin '
2
)
= r
1
r
2
[(cos '
1
cos '
2
sin '
1
sin '
1
) +i (cos '
1
sin '
2
+ sin '
1
'
2
)]
= r
1
r
2
[cos('
1
+'
2
) +i sin('
1
+'
2
)]
Veranschaulichung
Wenn z = a +bi, dann heit a bi = z komplex-konjugierte Zahl von z.
Es gilt fr alle z, z
0
C
28

1
2
(z +z) =
1
2
(Re(z) + Im(z) i + Re(z) Im(z) i)
=
1
2
(2Re(z)) = Re(z)
1
2i
(z z) =
1
2i
(Re(z) + Im(z) i Re(z) + Im(z) i)
=
1
2i
(2Im(z) i) = Im(z)

z z = (a +bi) (a bi) = a
2
abi +abi +b
2
= a
2
+b
2
= |z|
2

z +z
0
= z +z
0
z z
0
= z z
0

|z| + |z
0
| _ |z +z
0
|
Beweis.
|z +z
0
|
2
= (z +z
0
) (z +z
0
)
= (z +z
0
)
_
z +z
0
_
= z z +z z
0
+z
0
z +z
0
z
0
= |z|
2
+ 2Re(z z
0
) + |z
0
|
2
_ |z|
2
+ 2 |z z
0
| + |z
0
|
2
= (|z| + |z
0
|)
2
Durch Wurzelziehen folgt die Behauptung

1
z
=
z
z z
=
z
|z|
2
3.2 Polynome
3.2.1 Denition
Denition 3.7. Ein Polynom mit Koefzienten in einem Krper K ist ein Ausdruck
f(x) = a
0
+a
1
x +. . . +a
n
x
n
=
n

k=0
a
k
x
k
, wobei n N
0
, a
i
Koefzienten und
x Unbestimmte heien. a
n
,= 0 heit Leitkoefzent.
(Man kann Krper auch gegen kommutativer Ring mit Eins austauschen und
spter konkretisieren.)
Bemerkung. Zwar kann man fr x ein Element aus k einsetzen und so eine Abbildung
f : K K denieren, aber Polynome und Polynomabbildungen sind zu unterschei-
den.
29
3.2.2 Beispiel
f(x) = x
2
g(x) = x
3
f, g sind Polynome und fr jeden Krper gilt f ,= g.
ber K = R sind f und g verschiedene Abbildungen, fr K = Z
2
sind f, g allerdings
gleich als Abbildungen, denn es gilt
f(0) = 0 = g(0), f(1) = 1 = g(1)
3.2.3 Polynomringe
Denition 3.8. Sei K[x] die Menge alle Polynome mit Koefzienten in K in der Un-
bestimmten x.
Seien f, g K[x] mit
f =
n

k=0
a
k
x
k
, g =
m

k=0
b
k
x
k
fr m _ n, dann deniere eine Addition wie folgt:
f +g :=
m

k=0
(a
k
+b
k
) x
k
wobei alle Koefzienten a
i
mit i > n als 0 angenommen werden.
Die Multiplikation wird deniert durch
f g :=
n+m

k=0
c
k
x
k
wobei
c
k
:= a
0
b
k
+a
1
b
k1
+. . . +a
k
0 =
k

i=0
a
i
b
ki
(Die Multiplikation ist die gewohnte Multiplikation von Polynomen.)
Satz 3.2.1. (K[x], +, ) ist ein kommutativer Ring mit Eins.
(Auch hier kann man immer Krper K gegen kommutativer Ring mit Eins R
austauschen.)
Beweis. Sei K ein Krper und + und auf K[x] wie oben deniert. Es sind folgende
Punkte zu zeigen:
R1 (K[x], +) ist eine abelsche Gruppe, d.h.
Abgeschlossenheit: Kann direkt aus der Denition abgelesen werden.
Assoziativitt: Leicht einzusehen, da die Polynome komponentenweise
addiert werden, d.h. die Koefzenten der Unbestimmten gleichen Grades
addiert werden.
Kommutativitt: Ebenso.
30
Existenz eines neutralen Elements: Das Nullpolynom o = 0 ist neutrales
Element der Addition, wie man leicht einsieht.
Existenz von Inversen: Sei f K[x] mit f =
n

k=0
a
k
x
k
, dann sei f :=
n

k=0
(a
k
) x
k
, und es gilt
f + (f) =
n

k=0
(a
k
+ (a
k
)) x
k
=
n

k=0
0 x
k
= 0 = o
R2* ist eine kommutative, assoziative Operation mit einem Einselement in K[x],
d.h.
Abgeschlossenheit: Kann man aus der Denition ablesen. Seien f, g
K[x] wie in der Denition gegeben, dann sind die c
k
der Denition ge-
wiss Krperelemente, der Leitkoeffzient ist c
m+n
,= 0 (siehe Gradformel,
Denition 3.9 unten).
Assoziativitt: Seien a, b, c K[x] mit
a =
n
1

i=0
a
i
x
i
, b =
n
2

i=0
b
i
x
i
, c =
n
3

i=0
c
i
x
i
wobei n
1
, n
2
, n
3
N
0
, dann gilt
a (b c) = a
_
n
2
+n
3

k=0
_
k

i=0
b
i
c
ki
_
x
k
_
=
n
1
+(n
2
+n
3
)

k=0
_
k

m=0
a
m

km

i=0
b
i
c
kmi
_
x
k
=
(n
1
+n
2
)+n
3

k=0
_
k

m=0
a
m

k

i=m
b
im
c
ki
_
x
k
=
(n
1
+n
2
)+n
3

k=0
_
k

i=0
i

m=0
a
m
(b
im
c
ki
)
_
x
k
A
=
(n
1
+n
2
)+n
3

k=0
_
k

i=0
_
i

m=0
a
m
b
im
_
c
ki
_
x
k
=
_
n
1
+n
2

k=0
_
k

m=0
a
m
b
km
_
x
k
_

_
n
3

k=0
c
k
x
k
_
=
__
n
1

k=0
a
k
x
k
_

_
n
2

k=0
b
k
x
k
__

_
n
3

k=0
c
k
x
k
_
= (a b) c
31
Kommutativitt: Seien a, b wie oben, dann gilt
a b =
n+m

k=0
_
k

i=0
a
i
b
ki
_
x
k
K
=
m+n

k=0
_
k

i=0
b
ki
a
i
_
x
k
=
m+n

k=0
_
k

i=0
b
i
a
ki
_
x
k
= b a
Existenz einer Eins: Es ist 1
K[x]
= 1
K
, wie man leicht einsieht.
R3 Distributivgesetz: Seien a, b, c wie oben gegeben, dann gilt
a (b +c) = a
_
_
max{n
2
,n
3
}

k=0
(b
k
+c
k
) x
k
_
_
=
n
1
+max{n
2
,n
3
}

k=0
_
k

i=0
a
i
(b
ki
+c
ki
)
_
x
k
D
=
n
1
+max n
2
,n
3

k=0
_
k

i=0
a
i
b
ki
+a
i
c
ki
_
x
k
=
n
1
+max{n
2
,n
3
}

k=0
_
k

i=0
a
i
b
ki
+
k

i=0
a
i
c
ki
_
x
k
=
n
1
+max{n
2
,n
3
}

k=0
_
k

i=0
a
i
b
ki
_
x
k
+
_
k

i=0
a
i
c
ki
_
x
k
=
n
1
+max{n
2
,n
3
}

k=0
_
k

i=0
a
i
b
ki
_
x
k
+
n
1
+max{n
2
,n
3
}

k=0
_
k

i=0
a
i
c
ki
_
x
k
Wenn k > n
1
+ n
2
, dann ist, wenn i > n
1
, a
i
= 0, oder, wenn i < n
1
, d.h.
ki > n
2
, b
i
= 0. Analoges fr k > n
1
+n
3
und a
i
, c
i
. Da max {n
2
, n
3
} _ n
2
und max {n
2
, n
3
} _ n
3
ist also
n
1
+max{n
2
,n
3
}

k=n
1
+n
2
_
k

i=0
a
i
b
ki
_
x
k
= 0
bzw.
n
1
+max{n
2
,n
3
}

k=n
1
+n
3
_
k

i=0
a
i
c
ki
_
x
k
= 0
32
Also gilt
. . . =
n
1
+n
2

k=0
_
k

i=0
a
i
b
ki
_
x
k
+
n
1
+n
3

k=0
_
k

i=0
a
i
c
ki
_
x
k
= (a b) + (a c)
Bemerkung. Die Operationen +, fr Polynome und fr Polynomabbildungen sind
vertrglich. D.h., wenn f, g K[x], h = f + g und i = f g, dann gilt h() =
f() +g() und i() = f() g() fr alle K.
3.2.4 Gradformel
Denition 3.9. Der Grad deg(f) des Polynoms f K[x] ist
n = max {i N
0
: a
i
,= 0}
Der Grad des Nullpolynoms wird deniert als deg(o) = .
(Sptestens ab hier mssen die Polynome ber Krpern deniert werden, sonst wird
die folgende Bemerkung falsch.)
Proposition 3.2.1. Fr f, g K[x] gilt
deg(f +g) _ max {deg(f), deg(g)}
deg(f g) = deg(f) + deg(g)
Beweis. Wenn f, g K[x] mit deg(f) = n und deg(g) = m, dann ist per Denition
deg(f +g) = deg(
max{n,m}

k=0
(a
k
+b
k
) x
k
) _ max {deg(f), deg(g)}
und der n +m-te Koefzient des Produkts f g:
c
n+m
=
n+m

i=0
a
i
b
n+mi
= a
n
..
6=0
b
m
..
6=0
,= 0
denn fr i < n ist n +mi > m, d.h. b
m
= 0, und fr i > n ist a
i
= 0.
3.2.5 Nullteilerfreiheit
Folgerung. Der Ring K[x] ist nullteilerfrei, d.h. fr alle f, g K[x] mit f ,= o und
g ,= o gilt
f g ,= o
Beweis. Seien f, g K[x] mit f ,= o und g ,= o, d.h. deg(f) _ 0 und deg(g) _ 0,
dann gilt nach Gradformel
deg(f g) = deg(f) + deg(g) _ 0
33
3.2.6 Polynomdivision
Zwar gibt es in K[x] keine multiplikativen Inversen, aber wie im Ring (Z, +, ) der
ganzen Zahlen gibt es eine Division mit Rest.
Satz 3.2.2. Sind f, g K[x] mit g ,= o, dann gibt es eindeutig bestimmte q, r K[x]
mit
f = q g +r
wobei deg(r) < deg(g).
Beweis. Es wird zunchst die Eindeutigkeit gezeigt. Angenommen f = q
1
g +r
1
mit
deg(r
1
) < deg(g) und f = q
2
g +r
2
mit deg(r
2
) < deg(g), dann gilt
q
1
g +r
1
= q
2
g +r
2
= (q
1
q
2
) g = r
2
r
1
Wenn q
1
q
2
,= o, dann ist nach Gradformel deg((q
1
q
2
) g) = deg(q
1
q
2
) +
deg(g) _ deg(g), whrend deg(r
2
r
1
) < deg(g), was einen Widerspruch darstellt.
Also muss q
1
q
2
= o gelten, dann ist q
1
= q
2
und (q
1
q
2
) g = o g = o, also auch
r
2
r
1
= o, d.h. r
2
= r
1
.
Wenn eine solche Darstellung existiert, dann ist sie also eindeutig. Zum Beweis der
Existenz:
Es wird o.B.d.A. angenommen, dass deg(f) _ deg(g), ansonsten whlt man q = o
und r = f, dann ist q g +r = o g +f = o +f = f und deg(r) = deg(f) < deg(g).
Induktion ber deg(f):
Induktionsanfang
Aus deg(f) = 0 folgt deg(g) = 0, also f, g K. Dann gibt es aber g
1
K mit
g
1
g = 1, also whlt man q = f g
1
und r = o, dann gilt
q g +r = (f g
1
) g +o = f
Induktionsschritt
Sei die Aussage nun fr alle Polynome mit einem Grad kleiner als deg(f) bewiesen.
Sei n := deg(f) und m := deg(g), a der Leitkoefzent von f und b der Leitkoefzent
von g, dann betrachte das Polynom
f
a
b
x
nm
g
das so konstruiert ist, dass der Leitkoefzient von f sich hinweghebt, fr das also gilt
deg(f
a
b
x
nm
g) < deg(f)
Auf dieses Polynom wird die Induktionsvoraussetzung angewendet, d.h.
q
0
, r : f
a
b
x
nm
g = q
0
g +r
mit deg(r) < deg(g),
umgestellt
q
0
, r : f = (q
0
+
a
b
x
nm
) g +r
womit man die gewnschte Darstellung erhlt.
Ein Polynom g teilt ein Polynom f, wenn das Restpolynom bei der Polynomdivi-
sion das Nullpolynom ist.
34
3.2.7 Beispiel
Wenn f = 2x
3
+x 5 und g = x
2
+ 1 mit f, g Q[x], dann gilt
(2x
3
+x 5) : (x
2
+ 1) = 2x +
x5
x
2
+1
2x
3
2x
x 5
3.2.8 Folgerungen, Nullstellen
Folgerung 3.2.8.1. (Satz von Rufni)
Ist K eine Nullstelle (Wurzel) von f K[x], d.h. f() = 0, dann ist f =
q (x ) fr ein q K[x] (sprich: der Linearfaktor (x ) kann abgespalten
werden).
Beweis. Nach dem Satz ber die Polynomdivision gibt es eindeutig bestimmte q, r
K[x] mit
f = q (x ) +r
wobei deg(r) < deg(x ) = 1, also r K.
Einsetzen ergibt: 0 = f() = q() ( ) + r() = q() 0 + r() = r(), also
r() = 0 und damit r = o.
Folgerung 3.2.8.2. Ein Polynom vom Grad n hat hchstens n Nullstellen (unabhngig
von Krper).
Beweis. Induktion nach dem Grad von f:
Induktionsanfang
Ist deg(f) = 0, dann hat f keine Nullstelle und die Folgerung ist trivialerweise richtig.
Induktionsschritt
Sei die Folgerung nun fr alle Polynome mit Graden kleiner als deg(f) =: n bewiesen.
Wenn f die Nullstelle K hat, dann gilt nach Folgerung 1
f = q (x )
mit deg(f) = deg(g) deg(x ) nach Gradformel, also deg(g) = n 1. Nach
Induktionsvoraussetzung hat q hchstens n 1 Nullstellen, also hat f hchstens n
Nullstellen.
Folgerung 3.2.8.3. Ist K unendlich, dann gilt:
f = o K[x] ist das einzige Polynom mit f() = 0 fr alle K.
Beweis. Jedes Polynom f K[x] mit deg(f) = n N hat nach Folgerung 2 hchs-
tens n Nullstellen, d.h. es gibt hchstens n Elemente K mit f() = 0. Wenn es
also ein Polynom f ungleich dem Nullpolynom gbe mit f() = 0 fr alle K,
dann gibt es notwendigerweise nur deg(f) N Elemente in K.
Folgerung 3.2.8.4. Es gilt auch die Umkehrung: In jedem endlichen Krper gibt es ein
Polynom f ,= o mit f() = 0 fr alle K.
Beweis. Sei K = {k
1
, k
2
, . . . , k
n
}, dann ist
f = (x k
1
) (x k
2
) . . . (x k
n
)
wegen der Nullteilerfreiheit nicht o, also das gesuchte Polynom.
35
Folgerung 3.2.8.5. Ist K unendlich, dann sind Polynome f, g K[x] mit f() =
g() fr alle K auch als Polynome gleich.
Beweis. Aus f() = g() folgt f()g() = 0, also (f g)() = 0 fr alle K.
In einem unendlichen Krper gilt dies aber nur fr das Nullpolynom, also ist f g = o,
d.h. f = g.
3.2.9 Fundamentalsatz der Algebra
Satz 3.2.3. Jedes Polynom f C[x] mit deg(f) _ 1 hat mindestens eine Nullstelle.
Folgerung. Jedes Polynom f C[x] zerfllt in Linearfaktoren:
f = (x
1
) (x
2
) . . . (x
n
)
3.2.10 Lemma von Bezout
(Das nachfolgende Lemma wurde in der Vorlesung nicht erwhnt, soll an dieser Stel-
le aber eingefhrt und bewiesen werden, um den Beweis des nchsten Abschnittes zu
vervollstndigen.)
Lemma 3.2.10.1. Sei K[x] ein Polynomring und f, g K[x] Polynom. Wenn es
kein Polynom vom Grad _ 1 gibt, dass sowohl f als auch g teilt, so gibt es eindeutig
bestimmte Polynome f

, g

mit
f f

+g g

= 1
Beweis. Sei o.B.d.A. deg(f) _ deg(g). Wenn g das Nullpolynom ist, und f damit g
in jedem Fall teilt, muss deg(f) < 1 sein. D.h. f K, also whle f

= f
1
(Inverses
im Krper) und g

= g, dann gilt: f f

+g g

= 1 +o = 1.
Der Beweis erfolgt durch vollstndige Induktion nach dem Grad von f.
Fr den Induktionsanfang sei deg(f) = 0, also auch deg(g) = 0, damit sind beide
Polynome Krperelemente. Setzt man f

= f
1
und g

= o, so ergibt sich: f f

+
g g

= 1 +o = 1.
Sei das Lemma nun fr alle Polynome mit Graden kleiner als deg(f) bewiesen. Nach
dem Satz ber die Polynomdivision gibt es eindeutig bestimmte q, r K[x] mit
f = q g +r
wobei deg(r) < deg(g).
r und g sind teilerfremd, denn angenommen es gbe ein h K[x], das r und g teilt,
dann teilt h (nach Distributivgesetz) auch q g +r = f, was ein Widerspruch dazu ist,
dass f und g teilerfremd sind. Nach Induktionsvoraussetzung gibt es g
0
und r
0
mit
g g
0
+r r
0
= 1
Setzt man r = f q g ein, so erhlt man
g g
0
+ (f q g) r
0
= g g
0
+f r
0
q g r
0
= f r
0
+g (g
0
q r
0
) = 1
Setzt man f

= r
0
und g

= g
0
q r
0
, so erhlt man die Behauptung.
36
3.2.11 Faktorpolynomringe
Sei K[x] der Ring aller Polynome ber K und g K[x]. Betrachte nun
g K[x] := {h K[x] | f K[x] : h = g f}
also das Analogon zu m Z fr den Ring (Z, +, ). Im Ring der ganzen Zahlen ist
Z/mZ =: Z
m
ein Ring, wenn m prim ist sogar ein Krper. Ebenso gilt fr Polynomringe
Satz 3.2.4. K[t]/gK[t] =: K[t]
g
ist mit den von K[t] geerbten Operationen + und
ein Ring, wenn g ber K irreduzibel (nicht in Linearfaktoren zerlegbar ber K) sogar
ein Krper.
Beweis. Sei also g K[t]. Es wird die quivalenzrelation wie folgt erklrt:
\ x, y K[t] : x y = f K[t] : x y = f g
K[t]
g
ist nun die Menge aller quivalenzklassen von . Dann wird deniert
[x] + [y] := [x +y]
[x] [y] := [x y]
fr [x], [y] K[t]
g
.
Zu zeigen ist nun, dass (K[t]
g
, +, ) ein Ring ist, d.h. im Einzelnen
R1 (K[t]
g
, +) ist eine abelsche Gruppe, d.h. wiederum
Wohldeniertheit von +: Seien [x] = [x
0
] und [y] = [y
0
], dann gilt
f
1
K[t] : x x
0
= f
1
g
f
2
K[t] : y y
0
= f
2
g
also
f
1
, f
2
K[t] : (x x
0
) + (y y
0
) = f
1
g +f
2
g
d.h.
f
1
, f
2
K[t] : (x +y) (x
0
+y
0
) = (f
1
+f
2
) g
und damit
[x +y] = [x
0
+y
0
]
Abgeschlossenheit von K unter +: Klar, wenn x, y K[t], dann ist x+y
K[t], also [x +y] K[t]
g
.
Assoziativgesetz: Seien [x], [y], [z] K[t]
g
, dann gilt
([x] + [y]) + [z] = [x +y] + [z] = [(x +y) +z]
= [x + (y +z)] = [x] + [y +z]
= [x] + ([y] + [z])
Kommutativgesetz:
[x] + [y] = [x +y] = [y +x] = [y] + [x]
37
Existenz eines neutralen Elements: [o] ist auch das neutrale Element von
K[t]
g
, denn es gilt
[x] + [o] = [x +o] = [x]
Existenz von Inversen: [x] ist das inverse Element zu [x], denn es gilt
[x] + [x] = [(x) +x] = [o]
R2 ist eine assoziative, kommutative Operation auf K[t]
g
mit Einselement in K[t]
g
,
d.h. im Einzelnen
Wohldeniertheit von : Seien [x] = [x
0
] und [y] = [y
0
], dann gilt
f
1
K[t] : x x
0
= f
1
g
f
2
K[t] : y y
0
= f
2
g
also
f
1
, f
2
K[t] : x y = (f
1
g +x
0
) (f
2
g +y
0
)
= f
1
g f
2
g +f
1
g y
0
+x
0
f
2
g +x
0
y
0
d.h.
f
1
, f
2
K[t] : (x +y) (x
0
+y
0
) = (f
1
f
2
g +f
1
y
0
+f
2
x
0
) g
und damit
[x y] = [x
0
y
0
]
Abgeschlossenheit von K unter : Klar, wie bei +.
Assoziativgesetz: Seien [x], [y], [z] K[t]
g
, dann gilt
([x][y])[z] = [xy][z] = [(xy)z] = [x(yz)] = [x][yz] = [x]([y][z])
Kommutativgesetz:
[x] [y] = [x y] = [y x] = [y] [x]
Existenz der Eins: [1] ist das neutrale Element von K[t]
g
bezglich , denn
es gilt
[1] [x] = [1 x] = [x]
Distributivgesetze: Wegen der Kommutativitt gengt es, eines der beiden zu
zeigen:
[x] ([y] + [z]) = [x] [y +z] + [x (y +z)] = [x y +x z]
= [x y] + [x z] = ([x] [y]) + ([x] [z])
Damit ist gezeigt, dass K[t]
g
ein kommutativer Ring mit Eins ist.
Sei g nun irreduzibel. Um zu zeigen, dass (K[t]
g
, +, ) ein Krper ist, gengt es,
die Existenz der multiplikatives Inversen nachzuweisen fr alle [f] K[t]

g
.
Da g irreduzibel ist, ist g der einzige Teiler von sich selbst. Sei [f] K[t]

g
, dann ist
[f] ungleich [g], also ist f nicht durch g teilbar und damit teilerfremd zu g. Nach dem
Lemma von Bezout gibt es dann Polynome g

und f

mit
g

g = 1 f

f
das heit also
[1] = [f

f] = [f

] [f]
womit [f

] K[t]
g
multiplikatives Inverses zu [f] ist.
38
3.2.12 Beispiele
R[x]/(x
2
+ 1)R[x]

= C
Q[x]/(x
2
2)Q[x] ist der kleinste Krper, der die rationalen Zahlen und
_
2
enthlt:
Q[x]/(x
2
2)Q[x]

=
_
a +
_
2 b | a, b Q
_
39
4 Vektorrume
4.1 Denitionen
4.1.1 Vektorrume
Denition 4.1. Sei K ein Krper.
Eine Menge V ist ein Vektorraum ber K, wenn es Operationen +, gibt mit
V1 (V, +) ist eine abelsche Gruppe. Das neutrale Element dieser Gruppe nennt man
meist o und das Inverse zu v V nennt man v.
V2 Fr
: K V V
(, v) v
genannt skalare Multiplikation, gelten folgende Gesetze
(i) ( +) v = v + v - Distributivgesetz 1
(ii) (v +w) = v + w - Distributivgesetz 2
(iii) ( ) v = ( v) - Assoziativgesetz
(iv) 1 v = v - multiplikative Neutralitt der Krper-Eins
4.1.2 Weitere Eigenschaften
Satz 4.1.1. Aus den Vektorraumaxiomen lassen sich weitere Eigenschaften ableiten.
Sei v V ein K-Vektorraum und K:
(a) 0 v = o, denn es gilt: 0 v = (0 + 0) v = 0 v + 0 v =o = 0 v.
(b) o = o, denn es gilt: o = (o +o) = o + o =o = o.
(c) Aus v = o folgt = 0 oder v = o. Denn angenommen ,= 0 und v = o,
dann ist letzteres quivalent zu
1
( v) =
1
o, d.h. 1 v = o, also v = o.
(d) (1) v = v, denn es gilt:
vv = o = 0v = (1+(1))v = 1v+(1)v = v+(1)v =v = (1)v
4.1.3 Beispiele
1. Standardbeispiel: K
n
:= {x = (x
1
, x
2
, . . . , x
n
) | x
i
K}, wobei Addition
und skalare Multiplikation komponentenweise deniert sind, d.h. fr
(x
1
, . . . , x
n
), (y
1
, . . . , y
n
) K
n
, K
gilt
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
)
(x
1
, x
2
, . . . , x
n
) = ( x
1
, x
2
, . . . , x
n
)
40
2. Die Menge der Polynome K[x] ist ein Vektorraum ber K:
(K[x], +) ist eine abelsche Gruppe, weil (K[x], +, ) ein Ring ist, und die restli-
chen Gesetz ergeben sich aus der schon denierten Multiplikation, weil Krper-
elemente lediglich Polynome vom Grad 0 sind.
3. Vektorraum der Funktionen ber K: V = {f : M K}, mit M eine beliebige,
feste Menge. Die Operationen sind punktweise deniert
(f +g)(x) := f(x) +g(x) \ x M
( f)(x) := f(x) \ x M
4. Vektorraum der Abbildungen von einer Menge M in einen K-VektorraumW ist
ein K-Vektorrum. Die Operationen sind wie folgt deniert:
Sind F, G Abb(M, W) und K:
(F +G)(m) := F(m) +G(m) \ m M
( F)(m) := F(m) \ m M
5. (K
nn
, +, ) - die quadratischen Matrizen von Elementen aus K - mit der kom-
ponentenweisen Addition und skalaren Multplikation ist ein K-Vektorraum.
6. Jeder Krper ist ein Vektorraum ber sich selbst.
7. Allgemeiner: Ist L K ein Unterkrper von K, dann ist K ein L-Vektorraum.
4.1.4 Untervektorrume
Denition 4.2. Sei V ein K-Vektorraum, dann heit W V Untervektorraum von
V , wenn gilt
U1 o W
U2 v +w W \ v, w W
U3 v W \ K, v W
Satz 4.1.2. Ein Untervektorraum W von V ist mit den induzierten Operationen selbst
ein Vektorraum.
Beweis. Die Vektorraumaxiome lassen sich leicht nachrechnen:
V1 (W, +) ist eine abelsche Gruppe, denn es gilt:
G1 Die Addition ist nach U2 auf W abgeschlossen. Assoziativitt vererbt sich.
G2 Nach U1 ist o W. o ist neutrale Element von V , diese Eigenschaft vererbt
sich auf W.
G3 Wenn v W, dann ist nach U3 auch (1) v = v in W, was auch in W
das zu v Inverse sein muss.
V2 Die Multiplikation ist nach U3 ber W abgeschlossen und die Gesetze der Mul-
tiplikation vererben sich dank U2 und U3 auf W.
41
4.1.5 Beispiele
(a) Die trivialen Untervektorrume eines Vektorraums V sind W = {0} und W =
V .
(b) W
a
=
_
(x
1
, x
2
) R
2
| x
1
+a x
2
= 0
_
fr ein a R.
Allgemein: Lsungsrume homogener linearer Gleichungen in n Variablen ber
K sind Untervektorrume des K
n
.
(c) W = {f : C R | f(1) + (2 i) f(1 +i) = 0}
(d) R[x]
d
. .
Polynome ber R vom Grad d
R[x]
1
(R, R)
. .
stetig differenzierbare Abb.

0
(R, R)
. .
stetige Abb.
R
R
4.1.6 Durchschnitte von Unterrumen sind Unterrume
Proposition 4.1.1. Sei V ein Vektorraum und I eine Indexmenge. Fr i I sei W
i
ein Untervektorraum von V . Es gilt:

i2I
W
i
ist ein Untervektorraum von V .
Beweis. Es sind die Unterraumaxiome nachzuweisen:
U1 o W, weil o W
i
\ i I.
U2 v +w W \ v, w W, weil v, w W
i
fr alle i I, also auch v +w W
i
.
U3 v W \ K, v W, weil v, W
i
, also auch v fr alle i I.
4.1.7 Beispiele
V = R[x], dann ist die Menge W
k
der Polynome, deren k-ter Koefzient 0 ist,
ein Unterraum von V . Dann ist auch
W =

k ungerade
W
k
ein Unterraum von R[x]. Es ist W

= R[x
2
].
Seien
n

i=1
a
j
i
x
i
= 0
fr j = 1, . . . , mhomogene lineare Gleichungen ber K
n
. Wie in Beispiel b) ist
der Lsungsraum W
k
jeder der j Gleichungen fr sich ein Unterraum des K
n
.
Nach Proposition ist also auch
m

j=1
W
j
ein Unterraum des K
n
.
42
4.1.8 Vereinigung von Unterrumen ist kein Unterraum
Achtung. Die Vereinigung von Vektorrumen ist im Allgemeinen kein Vektorraum.
Wenn U, W Unterrume von V sind, so ist U W nur dann ein Unterraum, wenn
V W oder W V .
Beweis. Wenn U W oder W U, dann ist U W = W, also ist U W ein
Vektorraum.
Seien U, W Unterrume mit U , W und W , U, d.h. es gibt ein u U mit u , W
und ein w W mit w , U. Dann ist u +w , U (ansonsten wre auch (u +w) u =
w U) und u + w , W (ansonsten wre auch (u + w) w = u W), also ist U2
fr U W nicht erfllt.
4.1.9 Beispiel
V = R
2
, dann sei W
1
Lsungsraum von x
1
x
2
= 0 und W
2
der Lsungsraum von
2x
1
5x
2
= 0
Die Summe von Vektoren u W
1
, v W
2
ist im Allgemeinen nicht in der Vereini-
gung der Lsungsmengen.
4.1.10 Lineares Erzeugnis
Sei V ein Vektorraum ber K und seien v
1
, . . . , v
r
V .
Denition 4.3. v V heit Linearkombination von v
1
, . . . , v
r
V , wenn Skalare

1
,
2
, . . . ,
r
K existieren, sodass gilt
v =
1
v
1
+
2
v
2
+. . . +
r
v
r
=
r

k=1

k
v
k
Denition 4.4. Die Menge aller Linearkombinationen von v
1
, . . . , v
r
ist das Erzeug-
nis oder der aufgespannte Raum von v
1
, . . . , v
r
. Man schreibt dafr span(v
1
, . . . , v
r
)
oder v
1
, . . . , v
r
).
Proposition 4.1.2. v
1
, . . . , v
r
) ist der kleinste Untervektorraum von V , der v
1
, . . . , v
r
enthlt.
43
Beweis. Zunchst wird gezeigt, dass v
1
, . . . , v
r
) ein Untervektorraum von V ist.
U1 Es ist o v
1
, . . . , v
r
), dann fr
1
=
2
= . . . =
r
= 0 K ist
r

k=1

k
v
k
=
r

k=1
0 v
k
=
r

k=1
o = o
U2 Seien v, w v
1
, . . . , v
r
), d.h. es gibt
1
, . . . ,
r
K und
1
, . . . ,
r
K mit
v =
r

k=1

k
v
k
, w =
r

k=1

k
v
k
dann gilt
v +w =
r

k=1

k
v
k
+
r

k=1

k
w
k
=
r

k=1
(
k
+
k
) v
k
v
1
, . . . , v
r
)
U3 Seien K und v v
1
, . . . , v
r
), d.h. es gibt
1
, . . . ,
r
K mit
v =
r

k=1

k
v
k
dann gilt
v =
r

k=1

k
v
k
=
r

k=1
(
k
v
k
) =
r

k=1
(
k
) v
k
Jeder Unterraum W von V , der v
1
, . . . , v
r
enthlt, enthlt nach U2 und U3 auch
v =
r

k=1

k
v
k
fr alle
1
, . . . ,
r
K. Das heit W v
1
, . . . , v
r
), also ist v
1
, . . . , v
r
) der kleinste
Untervektorraum von V , der v
1
, . . . , v
r
enthlt.
4.1.11 Lineare Unabhngigkeit
Denition 4.5. Eine endliche Menge von Vektoren v
1
, . . . , v
r
aus dem K-Vektorraum
V heit linear unabhngig, wenn aus
r

k=1

k
v
k
= o
folgt

1
=
2
= . . . =
k
= 0
In anderen Worten: Der Nullvektor lsst sich nur trivial aus den v
i
kombinieren.
Eine unendliche Familie (v
i
| i I) von Vektoren heit linear unabhngig, falls jede
endliche Teilfamilie linear unabhngig ist.
44
4.1.12 Beispiele
... im R
3
:
a) e
1
=
_
_
1
0
0
_
_
, e
2
=
_
_
0
1
0
_
_
, e
3
=
_
_
0
0
1
_
_
sind linear unabhngig. Die einzige L-
sung (
1
,
2
,
3
) von

1
e
1
+
2
e
2
+
3
e
3
= o
ist (
1
,
2
,
3
) = (0, 0, 0).
b) v
1
=
_
_
1
1
0
_
_
, v
2
=
_
_
1
0
1
_
_
, v
3
=
_
_
0
1
1
_
_
sind linear unabhngig.
c) w
1
=
_
_
1
2
2
_
_
, w
2
=
_
_
2
1
1
_
_
, w
3
=
_
_
3
3
3
_
_
sind linear abhngig, weil w
1
+w
2
= w
3
gilt, also w
1
+w
2
w
3
= o eine nicht-triviale Linearkombination des Nullvektors
ist.
d) Fasst man R[x] als Vektorraum ber R auf, so ist {x
n
| n N} linear unabhn-
gig. Es gibt keine nicht-triviale endliche Linearkombination des Nullvektors.
4.1.13 Charakterisierung der linearen Unabhngigkeit
Proposition 4.1.3. Vektoren v
1
, . . . , v
r
sind linear unabhngig genau dann, wenn sich
jedes v v
1
, . . . , v
r
) eindeutig als Linearkombination der v
i
darstellen lsst
Beweis. Hinrichtung: Angenommen es gibt einen Vektor v v
1
, . . . , v
r
) mit zwei
verschiedenen Darstellungen, also
v =
r

k=1

k
v
k
, v =
r

k=1

k
v
k
dann gilt
o = v v =
_
r

k=1

k
v
k
_

_
r

k=1

k
v
k
_
=
r

k=1
(
k

k
) v
k
Aus der linearen Unabhngigkeit von v
1
, . . . , v
r
folgt fr alle k = 1, . . . , r

k
= 0 =
k
=
k
Widerspruch zu Annahme.
Rckrichtung: Wenn v
1
, . . . , v
r
linear abhngig sind, dann hat der Nullvektor zwei
verschiedene Darstellungen (die triviale und eine nicht-trivale).
Folgerung. Wenn v
1
, . . . , v
r
linear unabhngig sind, dann gilt fr alle i = 1, . . . , r:
v
i
, v
1
, . . . , v
i1
, v
i+1
, . . . , v
r
) (andernfalls gbe es zwei Darstellungen von v
i
durch
die Vektoren v
1
, . . . , v
r
, einmal als v
i
selbst und die zweite nur durch Vektoren aus
v
1
, . . . , v
i1
, v
i+1
, . . . , v
r
).
45
Bemerkung. Wie man leicht einsieht, gilt:
i) Ein einzelner Vektor v ,= o ist immer linear unabhngig.
ii) O ist linear unabhngig.
iii) Wenn o {v
1
, . . . , v
r
}, dann sind v
1
, . . . , v
r
linear abhngig.
iv) Ist v
i
eine Linearkombination von v
1
, . . . , v
i1
, v
i+1
, . . . , v
r
, dann ist v
1
, . . . , v
r
linear abhngig.
4.2 Basis und Dimension
4.2.1 Basis
Denition 4.6. Sei V ein Vektorraum ber K.
{v
1
, . . . , v
n
} heit Basis von V , wenn gilt
v
1
, . . . , v
n
) = V
{v
1
, . . . , v
n
} sind linear unabhngig.
Ist {v
1
, . . . , v
n
} Basis von V , dann kann jedes Element von V eindeutig als Line-
arkombination
v =
n

k=1

k
v
k
geschrieben werden.
4.2.2 Charakterisierung des Vektorraums durch eine seiner Basen
Proposition 4.2.1. (v
1
, . . . , v
n
) ist genau dann Basis eines K-Vektorraums V , wenn
fr jedes Element v V genau ein
(
1
,
2
, . . . ,
n
) K
n
mit
v =
n

k=1

k
v
k
existiert.
Es gibt also eine Bijektion ' zwischen V und K
n
' : V K
n
v (
1
,
2
, . . . ,
n
)
die sogar strukturerhaltend ist (wie spter gezeigt wird, siehe Abschnitt 7.1.2). Es ist
also V

= K
n
.
Beweis. Folgt aus der Denition und der Charakterisierung der linearen Unabhngig-
keit.
46
4.2.3 Beispiele
Fr V = K
n
heit B = (e
1
, e
2
, . . . , e
n
) die kanonische Basis, mit
e
i
= (0, 0, . . . , 1
..
i-te Stelle
, 0, . . . , 0)
die Einheitsvektoren genannt werden.
Fr W =
_
k R
2
| x
1
x
2
= 0
_
ist B = {(1, 1)} eine Basis.
K[x] hat die Basis B =
_
1, x, x
2
, . . . , x
n
, . . .
_
.
4.2.4 Alternative Denitionen
Satz 4.2.1. Fr eine Familie von Vektoren B = (v
1
, . . . , v
n
) aus einem Vektorraum V
ist quivalent:
(i) B ist Basis.
(ii) B ist minimal erzeugend, d.h. B) = V und fr alle B
0
( B gilt B
0
) , = V .
(Basisauswahlsatz)
(iii) B ist maximal linear unabhngig, d.h. B ist linear unabhngig und fr alle v V
gilt: B {v} ist linear abhngig. (Basisergnzungssatz)
Beweis. Man zeigt jeweils:
(i) =(ii) Angenommen B ist Basis und nicht minimal erzeugend, d.h.
B
0
( B : B
0
) = V
Sei v
i
B\B
0
. Weil B
0
V erzeugt, lsst sich v
i
einerseits als Linearkombination
von Vektoren aus B
0
, andererseits durch v
i
selbst darstellen, womit B nicht linear
abhngig, also auch keine Basis sein kann.
(ii) =(i) Wenn B keine Basis, also nicht linear unabhngig ist, aber erzeugend ist, dann
gibt es fr ein v
i
Skalare
k
K mit
v
i
=
_
i1

k=0

k
v
k
_
+
_
n

k=i+1

k
v
k
_
Aus v v
1
, . . . , v
n
) folgt fr Skalare
k
K
v =
n

k=0

k
v
k
=
i1

k=0

k
v
k
+
i

_
i1

k=0

k
v
k
+
n

k=i+1

k
v
k
_
+
n

k=i+1

k
v
k
=
i1

k=0

k
v
k
+
i1

k=0
(
i

k
) v
k
+
n

k=i+1
(
i

k
) v
k
+
n

k=i+1

k
v
k
=
_
i1

k=0
(
k
+
i

k
) v
k
_
+
_
n

k=i+1
(
k
+
i

k
) v
k
_
47
also v v
1
, . . . , v
i1
, v
i+1
, . . . , v
r
). Damit ist gezeigt, dass B nicht minimal
erzeugend ist.
(i) =(iii) Wenn B eine Basis ist, dann ist B erzeugend, d.h. fr alle v V ist v
v
1
, . . . , v
n
). Weil v
1
, . . . , v
n
sind linear unabhngig sind, ist {v, v
1
, . . . , v
n
}
nicht linear unabhngig, d.h. B ist maximal linear unabhngig.
(iii) =(i) Wenn B zwar linear unabhngig, aber nicht erzeugend ist, dann gibt es ein v V
mit v , v
1
, . . . , v
n
), d.h. {v, v
1
, . . . , v
n
} ist linear unabhngig. Das heit aber,
dass B nicht maximal linear unabhngig ist.
4.2.5 Existenz einer Basis fr endlich erzeugbare Vektorrume
Folgerung. Ist X V ein endliches Erzeugendensystem von V , d.h. X) = V , dann
gibt es eine Basis.
Beweis. Jedes endliche Erzeugendensytem enthlt ein minimales Erzeugendensystem,
also eine Basis.
Satz 4.2.2. Jeder endlich erzeugbare Vektorraum besitzt eine Basis.
4.2.6 Austauschlemma
Lemma 4.2.6.1. Sei B = (v
1
, . . . , v
n
) eine Basis von V und ist w =
n

k=0

k
v
k
mit

i
,= 0, dann ist
B
0
= {v
1
, . . . , v
i1
, w, v
i+1
, . . . , v
n
}
eine Basis von V .
Beweis. Zu zeigen ist, dass B
0
Basis von V ist, also
1. B
0
) = V :
Sei v V . dann existieren
1
, . . . ,
n
K mit
v =
1
v
1
+. . . +
n
v
n
O.B.d.A. sei k = 1, also w =
1
v
1
+. . .
n
v
n
,
1
,= 0.
Wegen
1
,= 0 gilt:
v
1
=
1

1
w

2

1
v
2
. . .

n

1
v
n
Daraus folgt
v =

1

1
w +

1


2

v
2
+. . . +

1


n

v
n
Also B = w, v
2
, . . . , v
n
) = V .
48
2. B
0
= (w, v
2
, v
3
, . . . , v
n
) ist linear unabhngig.
Sei
1
w +
2
v
2
+. . . +
n
v
n
= 0. Nach Voraussetzung ist
w =
1
v
1
+
2
v
2
+. . . +
n
v
n
mit
1
,= 0.
Dann ist
o =
1
w +
2
v
2
+. . . +
n
v
n
=
1
(
1
v
1
+
2
v
2
+. . . +
n
v
n
) +
2
v
2
+. . . +
n
v
n
=
1

1
v
1
+ (
1

2
+
2
) v
2
+. . . + (
1

n
+
n
) v
n
Mit der linearen Unabhngigkeit von v
1
, . . . , v
n
folgt

1

1
= 0 =
1
= 0
und dann

1

k
+
k
= 0 +
k
= 0 =
k
= 0
fr alle k = 2, . . . , n, also

1
=
2
= . . . =
n
= 0
4.2.7 Austauschsatz von Steinitz
Die anschlieenden Folgerungen werden bedeutend einsichtiger und einfacher zu be-
weisen, hat man vorher den Austauschsatz von Steinitz zur Verfgung (der quivalent
zum Austauschlemma ist). Im Gegensatz zur Vorlesung wird also zunchst dieser Satz
bewiesen und dann bei den Folgerungen verwendet.
Satz. Sei B = {v
1
, . . . , v
n
} eine Basis des K-Vektorraums V und C = {w
1
, . . . , w
m
}
eine Menge linear unabhngiger Vektoren. Dann gibt es eine Menge von n m Vek-
toren, o.B.d.A. v
m+1
, . . . , v
n
, sodass
{w
1
, . . . , w
m
, v
m+1
, . . . , v
n
}
eine Basis von V ist.
Beweis. Beweis durch vollstndige Induktion ber m
Fr m = 1 folgt der Satz direkt aus dem Austauschlemma.
Sei m > 1 und der Austauschsatz fr Mengen C
0
mit m 1 Elementen gezeigt.
Sei C = {w
1
, . . . , w
m
} eine Menge linear unabhngiger Vektoren, dann betrachte
zunchst C
0
= C \ {w
m
}. C
0
besitzt m 1 Elemente, also kann man die Induktions-
voraussetzung darauf anwenden:
{w
1
, . . . , w
m1
, v
m
, v
m+1
, . . . , v
n
}
ist eine Basis von V . Man kann also w
m
V als Linearkombination dieser Vektoren
darstellen:
w
m
=
m1

k=1

k
w
k
+
n

k=m

k
v
k
49
Es muss ein i _ m geben mit
i
,= 0, denn sonst wre
w
m
=
m1

k=1

k
w
k
was wiederum ein Widerspruch zur linearen Unabhngigkeit von w
1
, . . . , w
1
wre.
Sei o.B.d.A i = m, dann ist nach Austauschlemma ist also
{w
1
, . . . , w
m1
, w
m
, v
m+1
, . . . , v
n
}
eine Basis von V .
4.2.8 Alle Basen haben gleich viele Elemente
Satz 4.2.3. Je zwei Basen eines (endlich erzeugten) Vektorraums V habe die gleiche
Anzahl von Elementen (=Kardinalitt).
Beweis. V sei ein endlich erzeugbarer Vektorraum. Dann existieren Basen mit endlich
vielen Elementen. Angenommen B = (v
1
, . . . , v
n
), B
0
= (w
1
, . . . , w
m
) sind Basen
mit m < n. Insbesondere ist B
0
dann linear unabhngig und nach Austauschsatz von
Steinitz gibt es n m _ 1 Vektoren in B, o.B.d.A. v
m+1
, . . . , v
n
, sodass
{w
1
, . . . , w
m
, v
m+1
, . . . , v
n
}
eine Basis, also ein minimales Erzeugendensystem von V ist, was ein Widerspruch
dazu ist, dass B
0
ein minimales Erzeugendensystem, also eine Basis ist.
4.2.9 Dimension
Denition 4.7. Sei V ein K-Vektorraum, dann deniere
dim
K
(V ) =
_
n, falls V eine Basis mit n Elementen besitzt
, falls V keine endliche Basis besitzt
Proposition 4.2.2. Sei V ein K-Vektorraum und w
1
, . . . , w
r
Vektoren aus V . Sei r >
dim
K
(V ), dann ist (w
1
, . . . , w
r
) linear abhngig.
Beweis. Sei B = {v
1
, . . . , v
n
} eine Basis von V .
Angenommen (w
1
, . . . , w
r
) (n < r) sei linear unabhngig, dann ist auch (w
1
, . . . , w
n
)
linear unabhngig. Nach dem Ausstauschsatz von Steinitz kann man die Basis B also
komplett austauschen, d.h. (w
1
, . . . , w
n
) ist Basis und damit maximal linear unabhn-
gig, was ein Widerspruch zur Annahme ist.
4.2.10 Beispiele
dim
K
K
n
= n
dim
R
C = 2, denn (1, i) ist eine Basis des R-Vektorraums C.
dim
Q
R =
50
4.2.11 Dimension von Unterrumen
Proposition 4.2.3. Sei W ein Unterraum von V .
(i) Es gilt dimW _ dimV .
(ii) Aus dimW = dimV folgt W = V .
Beweis.
(i) Jede linear unabhngige Menge von Vektoren in V hat hchstens dimV viele Ele-
mente. Jede linear unabhngige Menge in W, insbesondere jede Basis, ist natrlich
auch eine linear unabhngige Menge in V , hat also hchstens dimV Elemente. Also
dimW _ dimV .
(ii) Angenommen dimW = dimV , aber W ( V .
Sei B Basis von W und v V \W, d.h. v , B). B{v} wre dann linear unabhngig
in V , htte aber mehr Elemente als dimW = dimV , Widerspruch.
4.3 Unendlichdimensionale Vektorrume
4.3.1 Beispiele
Eine andere Sichtweise auf die Menge der Polynome ber einem Krper K ist
die Betrachtung der Polynomkoefzienten, angeordnet in einer unendlichen Fol-
ge, in der fast alle Folgenglieder 0 sind:
K[x]

= {(a
0
, a
1
, . . . , a
n
, 0, 0, . . .) | a
i
K \ i N}
=
_
(a
i
)
i2N
K | n N : a
k
= 0 \ k > n
_
Man deniert dann
1 := (1, 0, 0, . . .), x := (0, 1, 0, 0, . . .), x
2
:= (0, 0, 1, 0, 0, . . .)
usw. Die Menge dieser Vektoren ist die Standardeinheitsbasis des K
(N)
.
Diese Sichtweise ist auch vertrglich mit der Multiplikation im Polynomring,
wie man leicht nachrechnen kann.
Insgesamt ist also K[x]

= K
(N)
, wobei K
(N)
der Vektorraum der unendlichen
Folgen mit fast allen Folgengliedern = 0 ist.
Die Menge der unendlichen Folgen ber einem Krper K
K
N
= {(a
0
, a
1
, . . . , a
n
, . . .) | a
i
\ i N}
ist ebenfalls ein Vektorraum. Die Operationen werden auch hier komponenten-
weise deniert.
B = ((1, 0, 0, . . .), (0, 1, 0, . . .), . . .)
ist keine Basis von K
N
, weil zum Beispiel (1, 1, 1, . . .) nicht als endliche Li-
nearkombination von Vektoren aus B geschrieben werden kann. B kann diesen
Vektor also nicht erzeugen.
51
4.3.2 Halbordnungen
Denition 4.8. Sei M eine Menge. Eine Relation R M M heit Halbordnung
auf M, wenn gilt
(i) R ist reexiv: mRm \ m M,
(ii) R ist antisymmetrisch: \ m, n M : mRn . nRm =m = n und
(iii) R ist transitiv: \ m, n, o M : mRn . nRo =mRo.
4.3.3 Beispiele
_ ist auf Z eine Halbordnung.
Sei
M = P({1, 2, 3}) = {O, {0} , {1} , {2} , {3} , {1, 2} , {1, 3} , {2, 3} , {1, 2, 3}}
Die Inklusion ist eine Halbordnung auf jeder Menge von Mengen:
(i) A A X
(ii) A B . B A =A = B X
(iii) A B . B C =A C X
4.3.4 Ketten
Denition 4.9. Sei M eine Menge mit einer Halbordnung R.
(a) K M heit Kette, falls gilt: a, b K =aRb . bRa.
(b) Eine Kette heit induktiv, falls ein m M existiert, sodass kRm \ k K
(m ist obere Schranke von K).
(c) Ein Element m
0
M heit maximal in M, falls gilt:
Ist m
0
Rm fr ein m M, dann folgt m = m
0
.
4.3.5 Lemma von Zorn
Satz 4.3.1. Sei M ,= O und R eine Halbordnung auf M. Ist jede Kette K M
induktiv, so gibt es wenigstens ein maximales Element m M.
(Das Lemma von Zorn ist quivalent zum Auswahlaxiom.)
4.3.6 Basisexistenzsatz fr beliebige Vektorrume
Satz 4.3.2. Sei V ein L-Vektorraum. Dann gibt es eine maximal linear unabhngige
Teilmenge B in V , also eine Basis.
Beweis. Sei
M := {B | B V, B ist linear unabhngig}
M ,= O, weil O linear unabhngig ist und O V , und damit O M.
Ordne M bezglich der Inklusion. Sei K M eine Kette in M. Es wird gezeigt, dass
52
K induktiv ist.
Setze dazu
B
0
=
_
B2K
B
dann gilt B B
0
fr alle B K. B
0
M, wenn B
0
linear unabhngig ist: Sei
n

i=1

i
b
i
= 0
fr
i
L, b
i
B
0
. Dann gibt es B
i
K mit b
i
B
i
fr alle i = 1, . . . , n. Nach
Denition der Kette sind die B
i
so geordnet, dass es ein j {1, . . . , n} gibt, sodass
B
i
B
j
, also b
i
B
j
fr alle i. B
j
M ist aber linear unabhngig, und damit folgt
aus der Gleichung:

1
=
2
= . . . =
n
= 0
Es gibt also ein B
0
M mit B B
0
fr alle B K, also ist K induktiv.
Damit ist gezeigt, dass jede Kette aus M induktiv ist. Nach dem Lemma von Zorn gibt
es also ein maximales Element in M, d.h. eine maximal linear unabhngige Menge von
Vektoren in V , also eine Basis.
4.4 Matrizen
4.4.1 Denition
Denition 4.10. Eine mn-Matrix ber K ist eine Anordnung von n m Elementen
aus K in einem rechteckigen Schema:
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
Die Elemente a
ij
sind die Koefzienten des Matrix.
Die waagerecht geschriebenen Tupel (a
i1
, a
i2
, . . . , a
in
) heien Zeilen(-vektoren).
Die senkrecht geschriebenen Tupel
_
_
_
_
_
a
1j
a
2j
.
.
.
a
mj
_
_
_
_
_
heien Spalten(-vektoren).
Die Menge aller mn-Matrizen ber K bezeichnet man mit M
K
(m, n), M(m, n, K)
oder K
mn
.
4.4.2 Zeilenstufenform
Denition 4.11. Eine Matrix ist in Zeilenstufenform, wenn sie so aussieht:
_
_
_
_
_
_
_
_
_
0
0 0 *
.
.
.
.
.
.
.
.
.
0 0
.
.
.
*
0 0 0 0
0 0 0 0 0
0 0
_
_
_
_
_
_
_
_
_
53
Beschreibung:
Die sind alle ,= 0.
Die Elemente rechts von den sind beliebig ().
Unter der Stufenlinie stehen nur 0-Elemente.
Formaler: A K
mn
ist in Zeilenstufenform, wenn gilt:
Es gibt ein r {0, 1, . . . , n}, sodass alle Zeilen mit Index i > r nur Nullen
enthalten.
Es existieren j
1
, . . . , j
r
mit
0 < j
1
< j
2
< . . . < j
r
_ n und j
i
:= min{j | a
ij
,= 0}
4.4.3 Kriterium fr lineare Unabhngigkeit
Lemma 4.4.3.1. Ist A in Zeilenstufenform und sind a
1
, . . . , a
r
die Zeilen ungleich o
in A, dann sind diese Zeilen linear unabhngig.
Beweis. Sei
o =
1
a
1
+. . . +
r
a
r
mit
i
K fr alle 1 _ i _ r.
Dies ist (also: kann interpretiert werden als) ein System von n homogenen linearen
Gleichungen.
Betrachte j
1
dieser Gleichungen:
0 =
1
a
1,j
1
+. . . +
r
a
r,j
1
Wegen a
ij
= 0 fr alle i > 1 (alle Eintrge unter dem ersten Element ,= 0 in der ersten
Zeile sind 0) ist das
0 =
1
a
1,j
1
+
2
0 +. . . +
r
0 =
1
a
1,j
1
..
6=0
=
1
= 0
Sei aus den Gleichungen j
1
, . . . , j
k1
gezeigt, dass
1
= . . . =
k1
= 0 fr ein
k, 1 < k _ n. Wenn j
k
_ j
r
, dann betrachte die j
k
-te Gleichung des Systems
0 =
1
a
1,j
k
+. . . +
r
a
r,j
k
Wegen
1
= . . . =
k1
= 0, und a
ij
= 0 fr alle i > k folgt
0 = 0 a
1,j
k
+. . . +0 a
k1,j
k
+
k
a
k,j
k
+
k+1
0 +
r
0 =
k
a
k,j
k
..
6=0
=
k
= 0
Induktiv folgt also
1
=
2
= . . . =
r
= 0, d.h. a
1
, . . . , a
r
knnen nur trivial zum
Nullvektor kombiniert werden, sie sind also linear unabhngig.
4.4.4 Zeilenraum
Denition 4.12. Der Zeilenraum ZR(A) einer Matrix A K
mn
ist das Erzeugnis
der Zeilen von A, d.h. ZR = a
1
, . . . , a
n
), wobei a
i
die i-te Zeile von A ist.
54
4.4.5 Elementare Zeilenumformungen
Denition 4.13. Sei A eine Matrix des K
mn
.
Typ I: Die i-te Zeile wird mit einem Skalar multipliziert.
A =
_
_
_
_
_
_
_
_
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
_
_
_
_
_
_
_
_
6=0

_
_
_
_
_
_
_
_
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
_
_
_
_
_
_
_
_
= A
I
Typ II: Zeile i und Zeile j werden addiert.
A =
_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j

. . .
_
_
_
_
_
_
_

_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j
+a
i

. . .
_
_
_
_
_
_
_
= A
II
4.4.6 Elementare Zeilenumformungen sind zeilenraumerhaltend
Lemma 4.4.6.1. Fr die Zeilenumformungen A A
I
und A A
II
gilt:
ZR(A) = ZR(A
I
) = ZR(A
II
)
Beweis. Sei v ZR(A), d.h. es existieren
1
, . . . ,
m
mit
v =
1
a
1
+. . . +
i
a
i
+. . . +
m
a
m
=
1
a
1
+. . . +

i

( a
i
) +. . . +
m
a
m
ZR(A
I
)
bzw.
v =
1
a
1
+. . . +
i
a
i
+. . . +
j
a
j
+. . . +
m
a
m
=
1
a
1
+. . . + (
i

j
) a
i
+. . . +
j
(a
j
+a
i
) +. . . +
m
a
m
ZR(A
II
)
Die anderen Richtungen sind hnlich einfach zu zeigen.
4.4.7 Weitere Zeilenumformungen
Typ III: Addition des -fachen einer Zeile i zu einer Zeile j.
A =
_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j

. . .
_
_
_
_
_
_
_
6=0

_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j
+ a
i

. . .
_
_
_
_
_
_
_
= A
III
55
Typ III als Kombination von Typ I und II:
A =
_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
a
j

. . .
_
_
_
_
_
_
_
I

_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
a
j

. . .
_
_
_
_
_
_
_
II

_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
a
j
+ a
i

. . .
_
_
_
_
_
_
_
I

_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
a
j
+ a
i

. . .
_
_
_
_
_
_
_
= A
III
Also ist ZR(A) = ZR(A
III
).
Typ IV: Vertauschen von zwei Zeilen.
A =
_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j

. . .
_
_
_
_
_
_
_

_
_
_
_
_
_
_
. . .
a
j

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i

. . .
_
_
_
_
_
_
_
= A
IV
Typ III als Kombination von Typ I, II und III:
A =
_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
a
j

. . .
_
_
_
_
_
_
_
III

_
_
_
_
_
_
_
. . .
a
i

.
.
.
.
.
.
.
.
.
a
j
a
i

. . .
_
_
_
_
_
_
_
II

_
_
_
_
_
_
_
. . .
a
i
+ (a
j
a
i
) = a
j

.
.
.
.
.
.
.
.
.
a
j
a
i

. . .
_
_
_
_
_
_
_
III

_
_
_
_
_
_
_
. . .
a
j

.
.
.
.
.
.
.
.
.
(a
j
a
i
) a
j
= a
i

. . .
_
_
_
_
_
_
_
I

_
_
_
_
_
_
_
. . .
a
j

.
.
.
.
.
.
.
.
.
a
i

. . .
_
_
_
_
_
_
_
= A
IV
Also folgt: ZR(A) = ZR(A
IV
)
4.4.8 Jede Matrix kann in Zeilenstufenform umgeformt werden
Satz 4.4.1. Sei A eine mn-Matrix mit Zeilen a
1
, . . . , a
m
.
Mit elementaren Zeilenumformungen lsst sich A in eine Matrix A
0
in Zeilenstufen-
form berfhren.
Die Zeilen von A
0
, die keine Nullzeilen sind, bilden eine Basis von ZR(A).
56
Beweis. Es bleibt zu zeigen, dass elementare Zeilenumformungen stark genug sind,
um Zeilenstufenform zu erzeugen.
Die Idee dazu ist die systematische Erzeugung von 0-Eintrgen.
Wenn A die Nullmatrix ist, dann ist nichts zu zeigen.
1. Ansonsten gibt es eine Spalte, die einen Eintrag ungleich 0 hat. Betrachte die
erste dieser Spalten, j
1
, und tausche die Zeilen so, dass in der ersten Zeile in der
betrachteten Spalte das Element a
1,j
1
,= 0 steht.
2. Mit Umformungen des Typs III addiert man Vielfache der ersten Zeile zu den
anderen Zeilen, dass die Spalte j
1
bis auf den Eintrag a
1,j
1
nur 0 enthlt.
3. Sei die Matrix bis zu einer Zeile a
k1
bereits in Zeilenstufenform, wobei die
letzte betrachtete Spalte j
k1
war. Ist a
k1
letzte Zeile oder j
k1
letzte Spalte,
ist man fertig. Man ist auerdem fertig, wenn alle Spalten rechts von j
k1
und
unterhalb von a
k1
nur 0 enthalten. Ansonsten betrachte die erste Spalte, ge-
nannt j
k
, die einen Eintrag ungleich 0 unterhalb von Zeile a
k1
hat. Tausche die
Zeile mit diesem Eintrag so, dass sie danach Zeile a
k
ist.
4. Mit Umformungen des Typs III addiert man Vielfache von a
k
zu den anderen
Zeilen unterhalb von a
k
, so dass die Spalte j
k
unterhalb von a
k
nur 0-Eintrge
enthlt.
4.4.9 Beispiele
Betrachte folgende Matrizen aus dem R
3
:

_
_
2 3 4
0 1 2
4 0 8
_
_
a
3
a
3
2a
1

_
_
2 3 4
0 1 2
0 6 0
_
_
a
3
a
3
+6a
2

_
_
2 3 4
0 1 2
0 0 12
_
_

_
_
1 1 1
4 3 2
3 2 1
_
_
a
3
a
3
+a
1

_
_
1 1 1
4 3 2
4 3 2
_
_
a
3
a
2
a
3

_
_
1 1 1
4 3 2
0 0 0
_
_
a
2
a
2
4a
3

_
_
1 1 1
0 1 2
0 0 0
_
_
4.4.10 Transponierte Matrix
Denition 4.14. Sei A = (a
ij
)
ij
K
mn
eine Matrix, dann heit
A
T
= (a
ji
)
ij
=
_
_
_
_
_
a
11
a
21
. . . a
n1
a
12
a
22
. . . a
n2
.
.
.
.
.
.
.
.
.
.
.
.
a
1m
a
2m
. . . a
nm
_
_
_
_
_
die Transponierte zu A oder A transponiert.
(Man vertauscht Zeilen und Spalten der Matrix, bzw. spiegelt die Eintrge an der
Hauptdiagonalen.)
57
4.4.11 Symmetrische und schiefsymmetrische Matrizen
Denition 4.15. Eine Matrix A K
nn
heit symmetrisch, wenn A = A
T
.
Denition 4.16. Eine Matrix A K
nn
heit schiefsymmetrisch, falls A
T
= A,
d.h. a
ij
= a
ji
fr all i, j.
4.4.12 Beispiel
Es gilt
A =
_
_
0 1 0
1 0 1
0 1 0
_
_
=A
T
=
_
_
0 1 0
1 0 1
0 1 0
_
_
= A
4.4.13 Rechenregeln fr Transponation
Bemerkung. Es gilt
a) ( A)
T
= A
T
\ K
b) (A+B)
T
= A
T
+B
T
c)
_
A
T
_
T
= A
Beweis. Man sieht leicht
a) ( (a
ij
)
ij
)
T
= ( a
ij
)
T
ij
= ( a
ji
)
ij
= (a
ji
)
ij
= (a
ij
)
T
ij
b)
((a
ij
)
ij
+ (b
ij
)
ij
)
T
= (a
ij
+b
ij
)
T
ij
= (a
ji
+b
ji
)
ij
= (a
ji
+b
ji
)
ij
= (a
ji
)
ij
+ (b
ji
)
ij
= (a
ij
)
T
ij
+ (b
ij
)
T
ij
c)

(a
ij
)
T
ij

T
= (a
ji
)
T
ij
= (a
ij
)
ij
4.5 Summen und direkte Summen
4.5.1 Summe von Untervektorrumen
Denition 4.17. Sind U
1
, U
2
Unterrume eines K-Vektorraums V , dann heit
U
1
+U
2
:= {x +y | x U
1
, y U
2
}
die Summe von U
1
und U
2
.
Bemerkung. U
1
+ U
2
ist ein Untervektorraum von V ; es ist sogar der kleinste Unter-
raum, der U
1
U
2
enthlt.
Beweis. Nachweis des Untervektorraumkriteriums
U1 o U
1
, o U
2
, also o = o +o (U
1
+U
2
)
58
U2 Seien x, x
0
U
1
, y, y
0
U
2
, dann sind (x +y), (x
0
+y
0
) (U
1
+U
2
) und
(x +y) + (x
0
+y
0
) = (x +x
0
)
. .
2U
1
+(y +y
0
)
. .
2U
2
(U
1
+U
2
)
U3 Ebenso ist fr K
(x +y) = x
..
2U
1
+ y
..
2U
2
(U
1
+U
2
)
Angenommen es gibt noch einen kleineren Unterraum, der U
1
U
2
enthlt. Dieser
enthlt dann also ein v V mit v = u
1
+ u
2
, u
1
U
1
, u
2
U
2
(also v U
1
+
U
2
) nicht. Er muss aber u
1
und u
2
und damit nach U2 auch u
1
+ u
2
= v enthlten,
Widerspruch.
4.5.2 Beispiele
U + {o} = U
U +U = U
Allgemeiner: U +U
0
= U, wenn U
0
Untervektorraum von U ist.
Sei V = R
3
und U = {(x, x, 0) | x R} , W = {(0, y, 0) | y R}, dann ist
U +W = {(x, x +y, 0) | x, y R} = x-y-Ebene
Im V = K
nn
seien
U =
_
A V | A = A
T
_
, W =
_
A V | A
T
= A
_
also U die Menge der symmetrischen und W die Menge der schiefsymmetri-
schen Matrizen. U und W sind Unterrume von V .
Im V = R
nn
gilt U W = V , d.h. U +W = V und U W = {o}.
Beweis. Sei A V , so gilt
A =
1
2
(A+A) =
1
2
_
A+A
T
A
T
+A
_
=
1
2
_
A+A
T
_
+
1
2
_
AA
T
_
Es gengt zu zeigen:
1
2
_
A+A
T
_
U,
1
2
_
AA
T
_
W.

1
2
_
A+A
T
_

T
=
1
2
_
A
T
+A
_
=
1
2
_
A+A
T
_

1
2
_
AA
T
_

T
=
1
2
_
A
T
A
_
=
1
2
_
AA
T
_
Wenn A U W, dann gilt
A = A
T
= A =
a
ij
= a
ij
\ a
ij
=
2a
ij
= 0 \ a
ij
=
a
ij
= 0 \ a
ij
=
A = o
also U W = {o}.
59
4.5.3 Summe und Erzeugnis
Korollar. Fr zwei Unterrume U
1
, U
2
gilt: U
1
, U
2
) = U
1
+U
2
.
Beweis. Sei zunchst s U
1
+ U
2
, d.h. es gibt x U
1
, y U
2
mit x + y = s.
Trivialerweise ist dann s = 1 x + 1 y U
1
, U
2
), also gilt U
1
+U
2
U
1
, U
2
).
Sei andererseits u U
1
, U
2
), d.h. es gibt Vektoren
v
1
, . . . , v
s
U
1
, w
s+1
, . . . , w
s+t
U
2
und Skalare
1
, . . . ,
s
,
s+1
, . . . ,
s+t
K, sodass gilt
u =
1
v
1
+. . . +
s
v
s
. .
2U
1
+
s+1
w
s+1
+. . . +
s+t
w
s+t
. .
2U
2
also eben auch u (U
1
+U
2
).
4.5.4 Dimensionsformel
Satz 4.5.1. Sind U
1
und U
2
Untervektorrume von V , dann gilt
dim(U
1
+U
2
) = dim(U
1
) + dim(U
2
) dim(U
1
U
2
)
Beweis. Sei B
0
= {v
1
, . . . , v
r
} eine Basis von U
1
U
2
, d.h. dim(U
1
U
2
) = r. Nach
dem Basisergnzungssatz kann man B
0
einerseits zu
B
1
= {v
1
, . . . , v
r
, w
1
, . . . , w
s
}
als eine Basis von U
1
(d.h. dimU
1
= r +s), und andererseits zu
B
2
= {v
1
, . . . , v
r
, z
1
, . . . , z
t
}
als eine Basis von U
2
(d.h. dimU
2
= r +t) ergnzen.
Kann man nun zeigen, dass B
3
= {v
1
, . . . , v
r
, w
1
, . . . , w
s
, z
1
, . . . , z
t
} eine Basis von
U
1
+U
2
ist, dann hat man gezeigt
dim(U
1
+U
2
) = r +s+t = (r +s) +(r +t) r = dimU
1
+dimU
2
dim(U
1
U
2
)
Dass B
3
den Raum U
1
+ U
2
erzeugt, ist klar. brig bleibt der Beweis der linearen
Unabhngigkeit:
Sei also fr gesuchte
1
, . . . ,
r
,
1
, . . . ,
s
,
1
, . . . ,
t
K:
o =
1
v
1
+. . . +
r
v
r
+
1
w
1
+. . . +
s
w
s
+
1
z
1
+. . . +
t
z
t
=

1
v
1
. . .
r
v
r

1
w
1
. . .
s
w
s
=
1
z
1
+. . . +
t
z
t
Das heit aber

1
v
1
. . .
r
v
r

1
w
1
. . .
s
w
s
=
1
z
1
+. . . +
t
z
t
U
1
Gleichzeitig gilt auch

1
z
1
+. . . +
t
z
t
U
2
also

1
z
1
+. . . +
t
z
t
(U
1
U
2
)
60
Dieser Vektor kann somit als Linearkombination von B
0
dargestellt werden, d.h. es
gibt
1
, . . . ,
r
mit

1
z
1
+. . . +
t
z
t
=
1
v
1
+. . . +
r
v
r
=
o =
1
v
1
+. . . +
r
v
r

1
z
1
. . .
t
z
t
Da {v
1
, . . . , v
r
, z
1
, . . . , z
t
} = B
2
Basis von U
2
ist, also insbesondere linear unabhn-
gig ist, folgt

1
= . . . =
r
=
1
= . . . =
t
= 0
also
1
= . . . =
t
= 0. Aus der ursprnglichen Gleichung folgt damit:
o =
1
v
1
+. . . +
r
v
r
+
1
w
1
+. . . +
s
w
s
Es ist aber {v
1
, . . . , v
r
, w
1
, . . . , w
s
} = B
1
eine Basis von B
1
, insbesondere ist die
Menge linear unabhngig, also folgt

1
= . . . =
r
=
1
= . . . =
s
= 0
D.h. alle Koefzienten
i
,
i
,
i
der Ausgangsgleichung sind 0, woraus die lineare
Unabhngigkeit von {v
1
, . . . , v
r
, w
1
, . . . , w
s
, z
1
, . . . , z
t
} = B
3
folgt.
4.5.5 Direkte Summe
Denition 4.18. Ein Vektorraum heit direkte Summe von U
1
und U
2
, wenn
V = U
1
+U
2
U
1
U
2
= {o}
Man schreibt dann: V = U
1
U
2
4.5.6 Existenz von komplementren Unterrumen
Proposition 4.5.1. Ist U ein Untervektorraum von V , dann gibt es einen Unterraum
U
0
mit U U
0
= V . U
0
heit der zu U komplementre Unterraum.
Beweis. Sei (v
1
, . . . , v
s
) = B eine Basis von U. B kann durch B
0
= (w
1
, . . . , w
t
) zu
einer Basis (v
1
, . . . , v
s
, w
1
, . . . , w
t
) von V ergnzt werden.
Setze U
0
= B
0
). Weil BB
0
Basis von V ist, erzeugt BB
0
(U
1
+U
2
) bestimmt
V , d.h. aber U
1
+U
2
= U
1
, U
2
) = V . Weil B B
0
linear unabhngig ist, folgt aus
v B) = U . v B
0
) = U
0
dass v = o gelten muss, d.h. U U
0
= {o}.
4.5.7 Beispiel
R
3
= e
1
) +e
2
) +e
3
)
R
3
= {(a, 0, 0) | a R} {(0, b, c) | b, c R}
61
5 Lineare Abbildungen
5.1 Denitionen
5.1.1 Lineare Abbildungen
Denition 5.1. Seien V, W Vektorrume ber K. Eine Abbildung F : V W ist
eine lineare Abbildung, wenn gilt
L1 F(v
1
+v
2
) = F(v
1
) +F(v
2
) \ v
1
, v
2
V - Additivitt
L2 F( v) = F(v) \ K, v V - Homogenitt
Lineare Abbildungen sind also Homomorphismen von Vektorrumen.
Bemerkung. Zum Beweis der Linearitt gengt zu zeigen:
F(
1
v
1
+
2
v
2
) =
1
F(v
1
) +
2
F(v
2
)
5.1.2 Beispiele
1.
Achtung.
f : R R
f(x) = a x +b
f ist afn linear, linear in unserem Sinne nur fr b = 0.
2. Sei A K
mn
eine Matrix ber K:
A =
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_
Diese Matrix deniert eine lineare Abbildung durch
A : K
n
K
m
x =
_
_
_
x
1
.
.
.
x
n
_
_
_
_
_
_
a
1
, x)
.
.
.
a
m
, x)
_
_
_ =
_
_
_
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
_
_
_
Man zeigt leicht, dass A : K
n
K
m
linear ist.
3. Drehungen in der Ebene um den Mittelpunkt (0, 0)
62
Eine Drehung um einen Winkel ist eine Abbildung

: R
2
R
2

(x, y) (x cos y sin , x sin +y cos )

ist (bis auf Transposition) die Abbildung zur Matrix


A =

cos sin
sin cos

4. Differentialoperator
D : R[x] R[x]
n

k=0
a
k
x
k

k=0
k a
k
x
k1
Man zeigt leicht: D ist linear (Ableitungsregeln).
5.1.3 Lineare Abbildungen sind Vektorraumhomomorphismen
Denition 5.2. Sei F : V W eine lineare Abbildung, also ein Vektorraumhomo-
morphismus.
Wenn F bijektiv ist, dann ist F ein Isomorphismus.
Wenn V = W, dann ist F ein Endomorphismus.
Wenn V = W und F bijektiv, dann ist F Automorphismus.
5.1.4 Eigenschaften von linearen Abbildungen
Bemerkung. Es gilt
F(o) = o
F(
1
v
1
+. . . +
n
v
n
) =
1
F(v
1
) +. . . +
n
F(v
n
)
Ist U ein Unterraum von V , dann ist F(U) ein Unterraum von W (U1 folgt aus
der ersten Bemerkung, U2 und U3 aus der zweiten).
63
Sind v
1
, . . . , v
n
linear abhngig in V , dann sind F(v
1
), . . . , F(v
n
) linear ab-
hngig in W. Denn es gibt eine nicht-triviale Linearkombination von o durch
v
1
, . . . , v
n
. F auf diese Linearkombination angewandt ist einerseits, nach der
ersten Bermerkung der Nullvektor in W, andererseits aber auch, nach der zwei-
ten Bemerkung, eine Linearkombination von Vektoren F(v
1
), . . . , F(v
n
).
Sei U ein Unterraum von V , dann gilt: dim(F(U)) _ dim(U). Denn jede Fa-
milie von mehr als dim(U) Vektoren aus U ist linear abhngig und nach der
letzten Bermerkung ist dann auch jede Familie von mehr als dim(U) Vektoren
aus F(U) linear abhngig.
5.1.5 Komposition linearer Abbildungen sind linear
Proposition 5.1.1. Seien U, V, W K-Vektorrume, G : V W, F : U V lineare
Abbildungen, dann ist auch (G F) : U W linear.
Beweis. Es sind Additivitt und Homgenitt zu zeigen.
Seien u
1
, u
2
U, dann gilt
(G F)(u
1
+u
2
) = G(F(u
1
+u
2
)) = G(F(u
1
) +F(u
2
))
= G(F(u
1
)) +G(F(u
2
)) = (G F)(u
1
) + (G F)(u
2
)
Sei u U und K, dann gilt
(G F)( u) = G(F( u)) = G( F(u))
= G(F(u)) = (G F)(u)
5.1.6 Vektorrume der Homomorphismen
Denition. Man bezeichnet die Menge aller Homomorphismen zwischen zwei K-
Vektorrumen V und W als Hom(V, W), also
Hom(V, W) = {F : V W, F linear}
Bemerkung. Hom(V, W) ist ein Untervektorraum von Abb(V, W) = W
V
.
Beweis. Die Unterraumkriterien mssen erfllt sein:
U1 O : v o - die Nullabbildung - ist linear:
Seien v
1
, v
2
V ,
1
,
2
K.
O(
1
v
1
+
2
v
2
) = o =
1
o +
2
o =
1
O(v
1
) +
2
O(v
2
)
U2 Abgeschlossenheit gegenber der Addition, also (F + G) Hom fr F, G
Hom
Seien v
1
, v
2
V ,
1
,
2
K.
(F +G)(
1
v
1
+
2
v
2
) = F(
1
v
1
+
2
v
2
) +G(
1
v
1
+
2
v
2
)
=
1
F(v
1
) +
2
F(v
2
) +
1
G(v
1
) +
2
G(v
2
)
=
1
(F(v
1
) +G(v
1
)) +
2
(F(v
2
) +G(v
2
))
=
1
(F +G)(v
1
) +
2
(F +G)(v
2
)
64
U3 Abgeschlossenheit gegenber der Skalarmultiplikation, also ( F) Hom fr
F Hom, K
Seien v
1
, v
2
V ,
1
,
2
K.
( F)(
1
v
1
+
2
v
2
) = F(
1
v
1
+
2
v
2
)
= (
1
F(v
1
) +
2
F(v
2
))
=
1
F(v
1
) +
2
F(v
2
)
=
1
( F(v
1
)) +
2
( F(v
2
))
=
1
( F)(v
1
) +
2
( F)(v
2
)
Also ist Hom(V, W) ein Unterraum von W
V
.
5.1.7 Menge der Endomorphismen
Denition. Die Menge der Endomorphismen eines Vektorrums bezeichnet man mit
End(V ), also
End(V ) := Hom(V, V )
Satz 5.1.1. End(V ) mit + (von Hom) und (Komposition) ist ein Ring.
Beweis. Es sind die Ringaxiome nachzuweisen
R1 (End(V ), +) ist eine abelsche Gruppe, weil (End(V ), +, ) ein K-Vektorraum
ist.
R2 Die Komposition ist immer assoziativ; sie ist auch eine Operation : End(V )
End(V ) End(V ), weil die Verknpfng zweier Endomorphismen F, G
End(V ) wieder ein Endomorphismus ist.
R3 Distributivgesetze:
Seien F, G, H End(V ), dann gilt fr alle v V :
(F (G+H)) (v) = F((G+H)(v)) = F(G(v) +H(v))
= F(G(v)) +F(H(v)) = (F G)(v) + (F H)(v)
und
((F +G) H) (v) = (F +G)(H(v)) = F(H(v)) +G(H(v))
= (F H)(v) + (G H)(v)
(End(V ), +, ) hat sogar ein Einselement: die identische Abbildung id
V
.
5.2 Bild, Faser, Kern
5.2.1 Denitionen
Denition 5.3. Fr F : V W linear, ist
das Bild: imF = F(V ) = {w W | v V : F(v) = w} W
65
der Kern: ker F = F
1
(o) = {v V | F(v) = o} V
Die Faser von F ber w imF ist
F
1
(w) = {v V | F(v) = w} V
Bemerkung. Sei F : V W ist linear.
(a) imF W ist ein Untervektorraum von W.
(b) ker F V ist ein Untervektorraum von V .
(c) F surjektiv genau dann, wenn imF = W (per Denition).
(d) F injektiv genau dann, wenn ker F = {o}.
(e) F injektiv, dann gilt:
Sind v
1
, . . . , v
n
linear unabhngig in V , dann sind F(v
1
), . . . , F(v
n
) linear un-
abhngig von W.
Beweis. Sei F : V W ist linear.
(a) Es sind die Untervektorraumaxiome nachzuweisen:
U1 F(o) = o, d.h. o imF X
U2 w
1
, w
2
imF = v
1
, v
2
V : F(v
1
) = w
1
, F(v
2
) = w
2
, und dann
F(v
1
+v
2
) = F(v
1
) +F(v
2
) = w
1
+w
2
also w
1
+w
2
imF.
U3 K, w imF =, v V : F(v) = w, und dann
F( v) = F(v) = w
also w imF.
(b) Es sind die Untervektorraumaxiome nachzuweisen:
U1 F(o) = o, d.h. o ker F X
U2 v
1
, v
2
ker F, d.h. F(v
1
) = F(v
2
) = o, also auch
F(v
1
+v
2
) = F(v
1
) +F(v
2
) = o +o = o
U3 K, v ker F, d.h. F(v) = o, und auch
F( v) = F(v) = o = o
(d) Wenn F injektiv, dann gilt natrlich auch ker F = F
1
(o) = {o}.
Sei andererseits ker F = F
1
(o) = {o}. Wenn v ,= v
0
, dann ist v v
0
,= o, also
F(v v
0
) ,= o =
F(v) F(v
0
) ,= o =
F(v) ,= F(v
0
)
also ist F injektiv.
66
(e) Betrachte

1
F(v
1
) +. . . +
k
F(v
k
) = o =
F(
1
v
1
+. . . +
k
v
k
) = o
Aus der Injektivitt folgt ker F = {o}, also

1
v
1
+. . . +
k
v
k
= o
Aus der linearen Unabhngigkeit folgt dann

1
= . . . =
k
= 0
5.2.2 Rang einer linearen Abbildung
Denition 5.4. Wenn F : V W eine lineare Abbildung ist, dann ist der Rang von
F deniert als rangF = rg F = dim(imF).
5.2.3 Rang einer Matrix
Proposition 5.2.1. Sei A K
mn
eine mn Matrix, dann ist der Rang der linearen
Abbildung A : K
n
K
m
die Dimension des von den Spalten a
1
, . . . , a
n
von A
erzeugten Untervektorraums von K
m
.
Beweis. Es gilt sogar: imA =

a
1
, . . . , a
n

:
a
i
imA, weil A e
i
= a
i
. Und weil imF ein Vektorraum ist, ist mit a
1
, . . . , a
n
auch

a
1
, . . . , a
n

in imF enthalten.
Sei y imA, d.h. es existiert ein x K
n
mit
y = A x = a
1
x
1
+a
2
x
2
+. . . +a
n
x
n
. .
2ha
1
,...,a
n
i
5.2.4 Faserung eines Vektorraums
Bemerkung. Sei F : V W linear.
Sei w imF, d.h. es existiert ein v
0
V mit F(v
0
) = w. Die Faser ber w ist dann
F
1
(w) = v
0
+ ker F = {v
0
+v | v ker F}
Beweis. Zu zeigen ist:
{v V | F(v) = w} = {v
0
+v | v ker F}
Sei v ker F, dann folgt
F(v
0
+v) = F(v
0
) +F(v) = w +o = w
also v
0
+v F
1
(w).
67
Sei u F
1
(w), d.h. F(u) = w = F(v
0
) und damit F(u) F(v
0
) = F(u
v
0
) = o. Damit ist aber u v
0
ker F und u = v
0
+ (u v
0
)
. .
2ker F
, also u
v
0
+ ker F.
5.2.5 Afne Teilrume
Denition 5.5. Eine Teilmenge X eines Vektorraums V ist ein afner Teilraum (oder
auch: afner Unterraum), falls es einen Unterraum U von V gibt, sodass X = v +U
fr ein v V .
Bemerkung. Wir haben gesehen: Die Fasern einer linearen Abbildung F : V W
sind afne Teilrume von V .
Es gilt auch: Jeder afne Teilraum ist eine Faser einer linearen Abbildung.
5.2.6 Beispiel
Im R
2
und R
3
gibt es als afne Unterrume Punkte, Geraden, Ebenen. Zudem ist auch
R
3
selbst ein afner Unterraum.
Sei F : R
2
R
3
die Projektion parallel zur x-Achse auf die Gerade x = y.
Diese Abbildung ist linear: F

x
y

y
y

, sie wird durch die Matrix

0 1
0 1

realisiert.
Der Kern von F ist ker F =

x
0

R
2
_
. Die Faser eines Punktes

p
p

ist dann
F
1

p
p

x
p

| x R
2
_
=

p
p

+ ker F
5.2.7 Charakterisierung von afnen Unterrumen
Proposition 5.2.2. Sei X = v +U ein afner Unterraum von V . Wenn X = v
0
+U
0
,
dann gilt
1. v X, v
0
X, und vor allem v v
0
U,
68
2. U = U
0
,
3. X = x +U fr alle x X.
Beweis. Wenn X = v +U = v
0
+U
0
, dann gilt eben
1. v = v +o X und v
0
= v
0
+o X,
2. damit dann v = v
0
+u
0
und v
0
= v+u fr bestimmte u U, u
0
U
0
, zusammen
v = (v +u) +u
0
= v +u +u
0
=o = u +u
0
=u = u
0
Wegen u U ist auch u = (u
0
) = u
0
U, analog u U
0
, also insgesamt
U = U
0
.
Schlielich folgt: v = v
0
+u fr ein u U, also v v
0
= u U.
3. x X kann geschrieben werden als x = v +u, womit gilt
x +U = (v +u) +U = v + (u +U) = v +U = X
5.2.8 Dimension afner Unterrume
Denition 5.6. Sei X = v +U ein afner Unterraum von V . Dann ist
dimX := dimU
Bemerkung. Aus der letzten Proposition folgt, dass das wohldeniert ist.
5.2.9 Komplementre Unterrume und afne Unterrume
Bemerkung. Seien U, W Untervektorrume von V mit U W = V . Jeder afne
Unterraum v +U von V mit v V schneidet W in genau einem Vektor.
Beweis. Sei v V , dann gibt es u U, w W mit v = u + w. Also gilt v + U =
(u+w) +U = w+U und damit (v +U) W = (w+U) W {w}. Angenommen
es gibt noch ein w
0
(v+U)W, dann gilt einerseits w
0
(w+U), d.h. w
0
w U,
und andererseits w
0
W, d.h. auch w
0
w W. Wegen U W = {o} folgt dann
aber w
0
w = o, also w
0
= w.
5.3 Dimensionsformel, Faktorrume und Homomorphiesatz
5.3.1 Dimensionsformel fr lineare Abbildungen
Satz 5.3.1. Seien V, W K-Vektorrume, V endlichdimensional, F : V W linear,
dann gilt
dimV = dim(ker F) + dim(imF)
Beweis. Sei (v
1
, . . . , v
k
) Basis von ker F und (w
1
, . . . , w
r
) Basis von imF. Whle
u
1
, . . . , u
r
V mit F(u
i
) = w
i
fr i = 1, . . . , r.
Wenn man zeigen kann, dass (v
1
, . . . , v
k
, u
1
, . . . , u
r
) Basis von V ist, dann hat man
gezeigt
dimV = k +r = dim(ker F) = dim(imF)
69
1. v
1
, . . . , v
k
, u
1
, . . . , u
r
) = V
Sei v V , dann ist F(v) imF, also gibt es
1
, . . . ,
r
K mit
F(v) =
1
w
1
+. . . +
r
w
r
Deniere v
0
=
1
u
1
+. . .+
r
u
r
, dann gilt F(v) = F(v
0
), also F(vv
0
) = o
und damit v v
0
ker F, also gibt es
1
, . . . ,
k
K mit
v v
0
=
1
v
1
+. . . +
k
v
k
also
v =
1
v
1
+. . . +
k
v
k
+
1
u
1
+. . . +
r
u
r
und damit v v
1
, . . . , v
k
, u
1
, . . . , u
r
), folglich V = v
1
, . . . , v
k
, u
1
, . . . , u
r
).
2. v
1
, . . . , v
k
, u
1
, . . . , u
r
sind linear unabhngig.
Sei

1
v
1
+. . . +
r
v
r
+
1
u
1
+. . . +
r
u
r
= o
Daraus folgt
F(
1
v
1
+. . . +
r
v
r
+
1
u
1
+. . . +
r
u
r
) = F(o) = o
Mit der Linearitt
F(
1
v
1
+. . . +
r
v
r
. .
2ker F
) +
1
F(u
1
) +. . . +
r
F(u
r
) = o =

1
w
1
+. . . +
r
w
r
= o
Weil w
1
, . . . , w
r
Basis und insbesondere linear unabhngig sind, folgt
1
=
. . . =
r
= 0. Also folgt aus der Ausgangsgleichung

1
v
1
+. . . +
r
v
r
= o
Weil aber wiederum v
1
, . . . , v
r
Basis und insbesondere linear unabhngig sind,
folgt
1
= . . . =
r
= 0.
Folgerung 5.3.1.1. Fr jedes Faster F
1
(w) von F : V W gilt
dim(F
1
(w)) = dim(v
0
+ ker F) = dim(ker F) = dimV dim(imF)
Folgerung 5.3.1.2. Wenn dimV = dimW, dann ist fr F : V W quivalent
(i) F ist injektiv.
(ii) F ist surjektiv.
(iii) F ist bijektiv.
Beweis. Es wird gezeigt
(i) =(ii) (i) ist quivalent zu ker F = {o}, nach Dimensionsformel und Voraussetzung
gilt also
dim(imF) = 0 + dim(imf) = dim(ker F) + dim(imF) = dimV = dimW
also: F ist surjektiv.
70
(ii) =(i) (ii) ist quivalent zu dim(imF) = dimW, nach Dimensionsformel und Voraus-
setzung also
dimW = dimV = dim(ker F) + dim(imF)
= dim(ker F) + dimW =0 = dim(ker F)
also ist ker F der Nullvektorraum {o}.
5.3.2 Faktorisierungssatz
Satz 5.3.2. Sei F : V W linear, dann gibt es einen linearen Untervektorraum U
von V mit U +ker F = V und U ker F = {o}. Mit anderen Worten V = U ker F.
Die Einschrnkung F|
U
: U imF ist ein Isomorphismus.
Beweis. Eigentlich schon im Beweis der Dimensionsformel enthalten.
Sei B
0
= (v
1
, . . . , v
k
) Basis von ker F. Erweitere B
0
zu einer Basis
B = (v
1
, . . . , v
k
, u
1
, . . . , u
r
)
von V und deniere U = u
1
, . . . , u
r
). Damit gilt U ker F.
Es bleibt zu zeigen, dass F|
U
ein Isomorphismus ist.
Wegen U ker F = {o} bildet die Einschrnkung F|
U
alleinig den Nullvektor aus V
auf den aus W ab, d.h. es gilt fr: ker F|
U
= {o}. Damit ist die Einschrnkung also
injektiv, nach Folgerung 2 der Dimensionsformel folgt damit aber, dass F|
U
bijektiv,
also Isomorphismus ist.
5.3.3 Beispiel
Betrachte wieder F

x
y

y
y

. Der Kern der Abbildung ist


ker F =

x
0

| x R
_
B
0
=

1
0
_
ist eine Basis von ker F, B =

1
0

0
1
_
ist dann Basis von V .
Wie im Beweis deniert man
U :=

0
1
_
Damit lsst sich F faktorisieren zu

x
y

Projektion

0
y

F|
U

y
y

71
Achtung. U ist nicht eindeutig!
Whlt man eine andere Basis, z.B. B =

1
0

1
1
_
, dann erhlt man als Faktori-
sierung

x
y

Projektion

y
y

F|
U
=id

y
y

5.3.4 Quotienten-/Faktorrume
Denition 5.7. Sei V ein K-Vektorraum und U ein Untervektorraum von V , dann
deniert man fr v, v
0
V die Relation
v v
0
== v v
0
U (v ist quivalent v
0
modulo U)
Wie man leicht einsieht, ist eine quivalenzrelation:
Beweis. Es sind die Eigenschaften einer quivalenzrelation nachzuweisen.
A1 v v = o U \ v V X
A2 v v
0
U =(v v
0
) = v
0
v U X
A3 v w U . w v
0
U =(v w) + (w v
0
) = v v
0
U X
Mit V/U bezeichnet man die Menge der quivalenzklassen von . Die Elemente
von V/U bezeichnet man mit
[v]
U
= v +U = {v +u | u U}
Auf V/U denieren wir
[v] + [v
0
] := [v +v
0
]
[v] := [ v]
Diese Operationen sind wohldeniert:
Beweis. Seien [v] = [u] , [v
0
] = [u
0
], d.h. v u U und v
0
u
0
U, also auch
(v u) + (v
0
u
0
) = (v +v
0
) (u +u
0
) U
also [v +v
0
] = [u +u
0
] und weiterhin
(v u) = ( v u) U
also [ v] = [ u]
Proposition 5.3.1. Diese Operationen machen V/U zu einem K-Vektorraum.
Beweis. Es sind die die Vektorraumaxiome nachzurechnen, diese vererben sich aber
von V , beispielsweise gilt:
([x] + [y]) + [z] = [x +y] + [z] = [(x +y) +z]
= [x + (y +z)] = [x] + [y +z]
= [x] + ([y] + [z])
fr alle [x], [y], [z] V/U, also ist (V/U, +) assoziativ.
[0] ist das neutrale Element der Addition, 1 K ist neutral bei der Skalarmultiplikati-
on.
72
Dieser Raum V/U heit Quotienten- oder Faktorraum von V nach U. Man sagt
auch: V/U entsteht aus V , indem man U herausfaktorisiert.
Bemerkung. Die Abbildung
q : V V/U
v [v]
ist linear und surjektiv, d.h. imq = V/U. Weiterhin ist ker q = U. Nach Dimensions-
formel fr lineare Abbildungen gilt
dimV/U = dim(imq) = dimV dim(ker q) = dimV dimU
q ist die Quotientenabbildung.
5.3.5 Universelle Eigenschaft
Satz. Sei F : V W linear und U ker F, dann gibt es genau eine lineare
Abbildung

F : V/U W
[v] F(v)
also

F q = F.
Beweis. Deniere

F([x]) = F(x) fr alle [x] V/U. Damit ist schon

F q = F, hat
man gezeigt, dass

F wohldeniert ist:
Sei [x] = [x
0
], d.h. xx
0
U ker F, dann folgt F(xx
0
) = o, wegen der Linearitt
also F(x) F(x
0
) = o und damit

F([x]) = F(x) = F(x
0
) =

F([x
0
]).

F ist linear, denn es gilt fr [v


1
], [v
2
] V/U und
1
,
2
K

F(
1
[v
1
] +
2
[v
2
]) =

F([
1
v
1
+
2
v
2
])
= F(
1
v
1
+
2
v
2
])
=
1
F(v
1
) +
2
F(v
2
)
=
1


F([v
1
]) +
2


F([v
2
])

F ist eindeutig, denn sei Geine weitere Abbildung mit den geforderten Eigenschaften,
dann muss fr alle [x] V/U gelten:
G([x]) = F(x) =

F([x])
73
5.3.6 Homomorphiesatz
Satz 5.3.3. Insbesondere gilt fr U = ker F, dass

F ein Isomorphismus zwischen
V/ ker F und imF darstellt. V/ ker F und imF sind also strukturgleich.
5.3.7 Beispiel
Sei U R
2
eine Gerade durch o. Die Gerade W ,= U durch o schneidet jeden
afnen Unterraum von v +U in genau einem Punkt (vgl. Bemerkung 5.2.9).
Die zu U gehrige Quotientenabbildung sei q : V V/U. Schrnkt man q
auf W ein: q

:= q|
W
, erhlt man die Abbildung q

: W V/U. Diese
Abbildung ist ein Isomorphismus, d.h. der Quotientenraum ist gleich dem Un-
terraum W V , wobei W U = V .
Betrachte
I(R) := {f : R R integrierbar}
I(R) ist ein R-Vektorraum mit punktweiser Addition und skalarer Multiplikati-
on.
N :=

f I(R) |
_
|f(t)|dt = 0
_
ist die Menge der integrierbaren Funktionen, die fast berall 0 sind. N ist ein
Untervektorraum von I(R).
g +N = {g +f | f I(R)} =

f |
_
|f(t) g(t)|dt = 0
_
ist die Menge der Funktionen, die fast berall gleich g sind. g+N ist ein Element
von I(R)/N.
74
75
6 Lineare Gleichungssysteme
6.1 Begriffe und Denitionen
6.1.1 Lineares Gleichungssystem
Denition 6.1. Ein lineares Gleichungssystem in den n Unbekannten x
1
, . . . , x
n
be-
steht aus den m Gleichungen der Form
n

j=1
a
ij
x
j
= b
i
i = 1, . . . , m, a
ij
, b
i
K
In Matrixschreibweise ergibt sich mit
A = (a
ij
) K
mn
, b =
_
_
_
b
1
.
.
.
b
m
_
_
_ K
m
das Gleichungssystem zu
A x = b
6.1.2 Homogenes/inhomogenes System
Denition 6.2. Zu einem Gleichungssystem Ax = b ist Ax = o das zugehrige ho-
mogene Gleichungssystem. Systeme mit b ,= o heien inhomogen.
6.1.3 Lsungsraum
Denition 6.3. Der Lsungsraum von Ax = b ist
L(A, b) = Ls(A, b) := {x K
n
| Ax = b}
6.1.4 Beispiel
3x
1
+x
2
= 5
x
1
x
2
+x
3
= 0
bertrgt sich zu

3 1 0
1 1 1

_
_
x
1
x
2
x
3
_
_
=

5
0

6.1.5 Matrizen denieren lineare Abbildungen


Bemerkung. Die Matrix A K
mn
deniert die lineare Abbildung
F
A
: K
n
K
m
x Ax
76
Es gilt
L(A, b) = {x K
n
| Ax = b}
= {x | F
A
(x) = b}
= F
1
A
(b) ist die Faser der linearen Abbildung
6.1.6 Zeilen- und Spaltenrang
Denition 6.4. Es wird deniert
Spaltenrang: SRg(A) := dim

a
1
, . . . , a
n

, also die Maximalanzahl linear un-


abhngiger Spalten in A.
Zeilenrang: ZRg(A) := dima
1
, . . . , a
m
), also die Maximalanzahl linear un-
abhngiger Zeilen von A.
6.2 Lsen und Lsungsraum von linearen Gleichungssystemen
6.2.1 Charakterisierung des Lsungsraums eines LGS
Satz 6.2.1. Gegeben sei das Gleichungssystem Ax = b mit m Gleichungen in n Un-
bekannten. Sei r = (Spalten-)Rang von A. Dann gilt:
L(A, o) ist Untervektorraum des K
n
mit der Dimension n r.
L(A, b) ist - wenn es eine Lsung gibt - afner Unterraumdes K
n
mit Dimension
n r.
Beweis. Sei F
A
die zu A gehrige lineare Abbildung. Es ist
L(A, o) = {x | Ax = o} = {x | F
A
(x) = o} = ker F
A
Der Lsungsraum eines homogenen Systems ist also ein linearer Unterraum. Damit
folgt
L(A, b) = F
1
A
(b) = y + ker F
A
fr ein beliebiges y F
1
A
(b),
d.h. der Lsungsraum eines inhomogenen Systems ist ein afner Unterraum.
Aus der Dimensionsformel folgt
dim(ker F
A
) + dim(imF
A
) = dimK
n
= n
Das Bild von F
A
wird von den Spalten von A aufgespannt, denn fr jedes x K
n
ist
F
A
(x) = x
1

_
_
_
a
11
.
.
.
a
m1
_
_
_+. . . +x
n

_
_
_
a
mn
.
.
.
a
mn
_
_
_
D.h. es gilt dim(imF
A
) = SRg(A) = r und damit
dim(L(A, b)) = dim(ker F
A
) = dimK
n
dim(imF
A
) = n r
Fr die Dimension des afnen Unterraums L(A, B) folgt dann ebenfalls
dim(L(A, b) = n r
Bemerkung. Insbesondere gilt immer {o} L(A, o), d.h. in homogenen linearen Glei-
chungssystem existiert immer die triviale Lsung.
77
6.2.2 Zeilenrang = Spaltenrang
Satz 6.2.2. Fr jedes Matrix A gilt: ZRg(A) = SRg(A)
Beweis. Idee:
1. Weglassen berssiger Zeilen und Spalten
2. Der Rest ist quadratisch.
1. Eine Zeile a
i
heit berssig, wenn a
i
a
1
, . . . , a
i1
, a
i+1
, . . . , a
m
), d.h.
wenn
j
K existieren mit
a
i
=
1
a
1
+. . . +
i1
a
i1
+
i+1
a
i+1
+. . . +
m
a
m
also komponentenweise
a
ik
=

j6=i

j
a
jk
\ k = 1, . . . , n (1)
Behauptung:
Das Weglassen von a
i
ndert den Zeilenrang nicht. X
Das Weglassen von a
i
ndert den Spaltenrang nicht.
Seien dazu a
1
, . . . , a
n
die Spalten vor demWeglassen und a
1
, . . . , a
n
die Spalten
nach dem Weglassen der i-ten Zeile.
Natrlich gilt: ker(A) = ker(

A), d.h. aus

1
a
1
+. . . +
n
a
n
= o
folgt

1
a
1
+. . . +
n
a
n
= o
da ja lediglich die i-te Komponente des Nullvektors nicht linear kombiniert wer-
den muss.
Es wird gezeigt: ker(

A) = ker(A), d.h. aus

1
a
1
+. . . +
n
a
n
= o
folgt

1
a
1
+. . . +
n
a
n
= 0
Sei G
j
die Gleichung
1
a
j1
+ . . . +
n
a
jn
= 0 des sich ergebenden Glei-
chungssystems. Aus der Annahme folgt, dass diese Gleichung fr j ,= i gilt. Es
gengt also zu zeigen, dass auch G
i
, dass also auch die i-te Komponente von
A gleich 0 ist.
Multipliziere dazu alle G
j
, j ,= i, mit
j
und summiere alle diese
j
G
j
an-
schlieend auf. Man erhlt:

j6=i
_

j

n

k=1

k
a
jk
_
= o =
n

k=1
_
_

j6=i

j
a
jk
_
_
= o
(1)
=
n

k=1
(
k
a
ik
) = o
78
Letzteres ist aber gerade Gleichung G
i
.
Damit ist gezeigt, dass gilt: ker(

A) == ker(A), also ker(

A) =
ker(A) und damit nach Dimensionsformel fr lineare Abbildungen:
dim(imA) = n dim(ker A) = n dim(ker

A) = dim(im

A)
also SRg(A) = SRg(

A).
Wendet man die Argumentation auf A
T
an, so erhlt man SRg(A
T
) = SRg(

A
T
),
wobei man bei

A
T
eine berssige Zeile, also in

A eine berssige Spalte
weggelassen hat. Und da die Transposition lediglich die Zeilen und die Spalten
vertauscht, gilt damit ZRg(A) = ZRg(

A) (und trivialerweise auch SRg(A) =
SRg(A)).
2. Sei A
0
K
m
0
n
0
die Matrix, die brig bleibt, d.h. A
0
hat keine berssigen
Zeilen oder Spalten. Auerdem wei man
ZRg(A) = ZRg(A
0
) und SRg(A) = SRg(A
0
)
Weil die Spalten von A
0
linear unabhngig sind, gilt dim(imA
0
) = SRg(A
0
) =
n
0
. Es ist n
0
= dim(imA
0
) _ dimK
m
0
= m
0
.
Betrachtet man andererseits A
0
T
K
n
0
m
0
und die dadurch induzierte Ab-
bildung A
0
T
: K
m
0
K
m
0
liefert die analoge Argumentation ZRg(A
0
) =
SRg(A
0
T
) = m
0
_ n
0
.
Zusammen gilt also
SRg(A) = SRg(A
0
) = n
0
= m
0
= ZRg(A
0
) = ZRg(A)
Denition 6.5. Man deniert also: rg(A) := SRg(A)
6.2.3 Kriterium fr die Lsbarkeit eines LGS
Satz 6.2.3. Ax = b hat genau dann eine Lsung, wenn rg(A) = rg(A, b).
Beweis.
Ax = b hat eine Lsung ==
b

a
1
, . . . , a
n

==
A) = A, b) ==
dimA) = dimA, b) ==
rg(A) = rg(A, b)
Die Rangbestimmung kann erfolgen, in dem man eine Matrix M durch elementare
Zeilenumformungen in eine Matrix M
0
durch Zeilenstufenform transformiert. Wendet
man das auf (A|b) an, so erhlt man die umgeformte erweiterte Koefzientenmatrix
(

A|

b).
Ergebnis: Das System ist lsbar ==

b
r+1
= . . . =

b
m
= 0 (vergleiche Denition
4.11 der Zeilenstufenform und die dazugehrige Abbildung).
79
6.2.4 Elementare Zeilenumformungen sind lsungsraumerhaltend
Lemma 6.2.4.1. Geht (A
0
|b
0
) aus (A|b) durch eine elementare Zeilenumformung a
i

a
i
oder a
i
a
i
+a
j
hervor, dann gilt
L(A
0
|b
0
) = L(A|b)
Beweis. Das zu Beweisene reduziert sich auf die Betrachtung der jeweils vernderten
Gleichungen des Systems. Betrachte die Umformungen einzeln:
(i) G
0
i
sei die i-te Gleichung des System A
0
x = b
0
:
G
0
i
: a
i1
x
1
+. . . + a
in
x
n
= b
i
Entsprechend ist G
i
i-te Gleichung von (A|b):
G
i
: a
i1
x
1
+. . . +a
in
x
n
= b
i
Wegen ,= 0 gilt:
x ist Lsung fr G
i
iff x ist Lsung von G
0
i
.
(ii) G
0
i
ist die Summe der Gleichungen G
i
und G
j
, G
0
j
ist dieselbe Gleichung wie
G
j
.
x ist Lsung fr G
i
und G
j
== x ist Lsung fr G
0
i
und G
0
j
.
6.2.5 Lsungen eines linearen Gleichungssystem
Satz. Ist Ax = b lsbar, dann knnen alle Lsungen folgendermaen gewonnen wer-
den:
Mit Hilfe von elementaren Zeilenumformungen formt man (

A|

b) in Zeilenstu-
fenform (A|b) um.
Durch das Umsortieren der Spalten (d.h. das Umindizieren der Variablen) bringt
man die Matrix in Trapezform:
_
_
_
_
_
_
_
_
_
a
11
b
1
0 a
22
* b
2
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
*
.
.
.
0 0 a
r1,r1
b
r1
0 0 0 a
rr
b
r
0 0
_
_
_
_
_
_
_
_
_
Whle x
r+1
, . . . , x
n
beliebig, so ergibt sich
x
r
=
b
r

j=r+1
x
j
a
rj
a
rr
x
r1
=
b
r1

j=r
x
j
a
r1,j
a
r1r1
.
.
.
Die Lsung wird also eindeutig mit x
1
, . . . , x
r
vervollstndigt.
80
Das heit: Die Lsungen sind durch n r freie Parameter (x
r+1
, . . . , x
n
) ein-
deutig beschrieben (dim(ker A) = n r).
6.2.6 Beispiel
Sei
_
_
2 1 0
4 2 4
6 3 9
_
_
x =
_
_
3
10
9
_
_
Die dazugehrige erweiterte Koefzientenmatrix wird mit elementaren Zeilenumfor-
mungen umgeformt:
_
_
2 1 0 3
4 2 4 10
6 3 9 9
_
_

_
_
2 1 0 3
0 0 4 4
0 0 9 0
_
_

_
_
2 1 0 3
0 0 4 4
0 0 0 36
_
_
Das Gleichungssystem ist also nicht lsbar.
ndert man den Vektor der Absolutwerte in
_
_
3
10
18
_
_
, so rechnet man
_
_
2 1 0 3
4 2 4 10
6 3 9 18
_
_

_
_
2 1 0 3
0 0 4 4
0 0 0 0
_
_

_
_
2 0 1 3
0 4 0 4
0 0 0 0
_
_
= (A
0
|b
0
)
Fr die Lsung von A
0
y = b
0
whlt man y
3
frei, so erhlt man
y
2
= 1, y
1
=
3 y
3
2
Damit ist die Lsungsmenge von Ax = b
L(A, b) =
_
_
_
_
_
3x
2
2
x
2
1
_
_
| x
2
R
_
_
_
81
7 Lineare Abbildungen und Matrizen
7.1 Lineare Abbildungen entsprechen Matrizen
7.1.1 Satz von der linearen Fortsetzung
Satz 7.1.1. Seien v
1
, . . . , v
r
V, w
1
, . . . , w
r
W.
i) Wenn v
1
, . . . , v
r
linear unabhngig sind, so existiert eine lineare Abbildung F :
V W mit F(v
i
) = w
i
.
ii) Wenn v
1
, . . . , v
r
Basis von V sind, gilt sogar, dass diese lineare Abbildung ein-
deutig ist.
Zustzlich gilt:
F ist injektiv genau dann, wenn w
1
, . . . , w
r
sind linear unabhngig sind.
imF = w
1
, . . . , w
r
)
Beweis. Aus (ii) folgt (i), denn nach dem Basisergnzungssatz lassen sich v
1
, . . . , v
r
zu einer Basis v
r+1
, . . . v
s
ergnzen. Man whlt w
r+1
, . . . , w
s
beliebig.
Sei also (v
1
, . . . , v
r
) Basis von V . Und sei v V , d.h. v =
r

i=1

i
v
i
. Dann deniere
F(v) = F(

i
v
i
) :=

i
F(v
i
) =

i
w
i
Wenn F linear mit F(v
i
) = w
i
\ i existiert, dann muss F(v) =

i
w
i
gelten,
also ist die Abbildung eindeutig.
Zur Existenz: Es ist nur nachzurechnen, dass die so beschriebene Abbildung tatschlich
linear ist:
F( v +v
0
) = F( (

i
v
i
) +

0
i
v
i
)
= F(

(
i
+
0
i
) v
i
)
Def
=

(
i
+
0
i
) F(v
i
)
=

i
F(v
i
) +

0
i
F(v
i
)
Def
= F(

i
v
i
) +F(

0
i
v
i
)
= F(v) +F(v
0
)
Zu den Zustzen:
Ist F injektiv, dann sind auch F(v
i
), also die w
i
linear unabhngig (siehe Be-
merkung zu Denition 5.2.1).
Wenn andererseits die w
i
nicht linear unabhngig sind, so lsst sich der Nullvek-
tor nicht-trivial kombinieren:
o =

i
w
i
=

i
F(v
i
) = F(

i
v
i
)
Da die v
i
linear unabhngig sind, ist

i
v
i
,= o. D.h. aber ker F ,= {o},
womit F nicht injektiv sein kann.
82
Klar ist: imF w
1
, . . . , w
r
).
Sei w w
1
, . . . , w
r
), d.h. es existieren Koefzienten
i
mit
w =

i
w
i
=

i
F(v
i
) = F(

i
v
i
)
Setze v :=

i
v
i
, dann ist F(v) = w, also w imF, insgesamt
w
1
, . . . , w
r
) imF
7.1.2 Fundamentalsatz fr endlichdimensionale Vektorrume
Folgerung 7.1.2.1. Sei V ein K-Vektorraum mit der Basis B = (v
1
, . . . , v
n
), dann
gibt es einen eindeutigen Isomorphismus

B
: K
n
V

B
(e
i
) = v
i
\ i = 1, . . . , n
Folgerung 7.1.2.2. Weiterhin gibt es fr eine lineare Abbildung F : K
n
K
m
genau eine Matrix A K
mn
mit F(x) = Ax fr alle Spaltenvektoren x K
n
.
Beweis. Wegen a
i
= A e
i
= F(e
i
) muss die i-te Spalte von A gleich F(e
i
) sein. Die
Matrix A = (F(e
1
), . . . , F(e
n
)) ist eindeutig festgelegt. Die von A denierte lineare
Abbildung stimmt auf einer Basis mit F berein, sie sind also gleich.
Folgerung 7.1.2.3. Seien V, W K-Vektorrume der Dimension n, A = (v
1
, . . . , v
n
)
Basis von V , B = (w
1
, . . . , w
n
) Basis von W. Dann gibt es also nach dem Satz der
linearen Fortsetzung eine eindeutige Abbildung
: V W
v
i
w
i
Aus den Zustzen folgt, dass injektiv und surjektiv, also bijektiv, d.h. Isomorphismus
zwischen V und W ist.
Satz. Endlichdimensionale Vektorrume ber einem Krper K mit derselben Dimen-
sion sind also isomorph.
7.1.3 Darstellungssatz
Satz. Sei F : V W eine beliebige lineare Abbildung zwischen ebengenannten
Vektorrumen. Dann existiert genau eine Matrix A K
mn
mit
F(v
j
) =
n

i=1
a
ij
w
i
Diese Matrix heit Darstellungsmatrix von F bezglich der Basen A und B.
Beweis. Stelle F(v
j
) als Linearkombination der Basisvektoren w
i
dar:. Die Koefzi-
enten dieser Linearkombination bilden die j-te Spalte der Matrix A.
A
F
ist also die eindeutige Matrix aus Folgerung 7.1.2.2 zu linearen Abbildung
(
1
B
F
A
) : K
n
K
m
83
A
f
erfllt die geforderten Eigenschaften:
(
1
B
F
A
)(e
j
) =
1
B
(F(
A
(e
j
))) =
1
B
(F(v
j
))
=
1
B
(
n

i=1
a
ij
w
i
) =
n

i=1
a
ij

1
(w
i
)
=
n

i=1
a
ij
e
i
7.1.4 Hom(V,W) ist ein Vektorraum von Matrizen
Bemerkung. Die Abbildung
M
A
B
: Hom(V, W) K
mn
F A
F
ist ein Isomorphismus von K-Vektorrumen.
Beweis. Die Zuordnung F A
F
ist wohldeniert (Darstellungssatz), surjektiv und
injektiv (klar). Sie ist zudem linear:
Seien F, G Hom(V, W), K und A
F
= (a
ij
) und A
G
(b
ij
) die zu F und G
gehrigen Matrizen (also M
A
B
(F) = A
F
und M
A
B
(G) = A
G
). Dann gilt
( F +G) (v
j
) = F(v
j
) +G(v
j
)
=
n

i=1
a
ij
w
i
+
n

i=1
b
ij
w
i
=
n

i=1
a
ij
+b
ij
Das ist aber die darstellende Matrix von F +G.
Folgerung 7.1.4.1. Die Dimension des Hom(V, W) ist dimHom(V, W) = m n.
7.1.5 Beispiele
Sei R[x]
n
der Vektorraum der reellen Polynome vom Grad _ n mit der Basis
A =
_
1, x, x
2
, . . . , x
n
_
und D der Differentialoperator:
D : R[x]
n
R[x]
n

kn
a
k
x
k

kn
k a
k
x
k1
84
Die Matrix A
D
= M
A
A
(D) ergibt sich zu
A
D
=
_
_
_
_
_
_
_
0 1 0 . . . 0
0 0 2 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . n
0 0 0 . . . 0
_
_
_
_
_
_
_
wie man dem folgenden Diagramm ablesen kann:
Whlt man fr R[x]
n
eine andere Basis, z.B.
B = (b
0
, . . . , b
n
) b
i
= 1 +x +x
2
+. . . +x
i
so erhlt man fr die Matrix B
D
= M
B
B
(D):
B
D
=
_
_
_
_
_
_
_
0 1 1 1 . . . 1
0 0 2 1 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 . . . n
0 0 0 0 . . . 0
_
_
_
_
_
_
_
wie man hieraus abliest:
Fr S
D
= M
B
A
(D) msssen wir nur D(b
i
) in der Basis A ausdrcken
D(b
i
) = 1 + 2x + 3x
2
+. . . +i x
i1
85
Also erhlt man
S
D
=
_
_
_
_
_
_
_
0 1 1 . . . 1
0 0 2 . . . 2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . n
0 0 0 . . . 0
_
_
_
_
_
_
_
7.2 Komposition und Matrixmultiplikation
Seien F : K
r
K
n
, G : K
n
K
m
lineare Abbildung und A
F
, A
G
die dazuge-
hrigen Darstellungsmatrizen bezglich der Standardbasis. Es soll untersucht werden,
wie A
FG
von A
F
und A
G
abhngt.
7.2.1 Matrixmultiplikation
Denition 7.1. Seien B = (b
ij
) K
nr
und A = (a
ij
) K
mn
Matrizen. Das
Produkt C = A B ist die Matrix C = (c
ij
) K
mr
mit c
ij
=
n

k=1
a
ik
b
kj
.
7.2.2 Beispiel
B =

1 1 0
0 2 3

, A =
_
_
_
_
1 1
1 1
0 2
2 0
_
_
_
_
=A B =
_
_
_
_
1 3 3
1 1 3
0 4 6
2 2 0
_
_
_
_
7.2.3 Komposition und Matrixmultiplikation entsprechen einander
Proposition 7.2.1. Mit der so denierten Matrizenmultiplikation gilt fr x K
r
A (Bx) = (A B) x
Beweis. Sei also x =
_
_
_
x
1
.
.
.
x
r
_
_
_, dann ist
Bx =
_
_
_
b
11
x
1
+. . . +b
1r
x
r
.
.
.
b
n1
x
1
+. . . +b
nr
x
r
_
_
_ =
_
_
_
y
1
.
.
.
y
n
_
_
_
und
Ay =
_
_
_
a
11
y
1
+. . . +a
1n
y
n
.
.
.
a
m1
y
1
+. . . +a
mn
y
n
_
_
_ =
_
_
_
z
1
.
.
.
z
m
_
_
_
86
wobei
z
i
=
n

k=1
a
ik
y
k
=
n

k=1
a
ik

r

j=1
b
kj
x
j
=
n

k=1
r

j=1
a
ik
b
kj
x
j
=
r

j=1
n

k=1
a
ik
b
kj
x
j
=
r

j=1
_
n

k=1
a
ik
b
kj
_
x
j
=
r

j=1
c
ij
x
j
also der i-te Eintrag von Cx ist, wenn A B = C.
Bemerkung. Das bedeutet: A
FG
= A
F
A
G
.
Bx kann man auch als Matrizenmultiplikation auffassen. Damit ist die Proposition ein
Spezialfall der Assoziativitt der Matrizenmultiplikation.
7.2.4 Spezialflle der Matrizenmultiplikation
Fr r = m = 1 ist
A B = (a
1
a
2
. . . a
n
)
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
=
n

i=1
a
i
b
i
K
11

= K
und
B A =
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
(a
1
, a
2
, . . . , a
n
) =
_
_
_
b
1
a
1
. . . b
1
a
n
.
.
.
.
.
.
.
.
.
b
n
a
1
. . . b
n
a
n
_
_
_ K
nn
Bemerkung. Die Matrizenmultiplikation ist also nicht kommutativ, selbst wenn wir
r = n = m annehmen:

1 1
0 0

0 1
0 1

0 2
0 0

,=

0 0
0 0

0 1
0 1

1 1
0 0

. .
Nullteiler
7.2.5 Dualraum
Denition 7.2. Sei V ein K-Vektorraum. Eine lineare Abbildung : V K heit
Linearform.
Denition 7.3. Hom(V, K) ist der Dualraum von V , bezeichnet mit V

.
Satz 7.2.1. Eine lineare Abbilung F : U V deniert eine duale Abbildung
F

: V

F
sodass das folgende Diagramm fr alle V

kommutiert
87
Sei konkret U = V = K
n
(Spaltenvektoren) und A
F
K
nn
die Matrix einer
linearen Abbildung; V

, d.h. K
1n
(Zeilenvektoren). Dann ist A

F
() =
A
F
wieder eine Zeile.
Beispiel:
A =
_
_
0 1 0
0 0 1
2 0 0
_
_
, = (1, 2, 3) = A = (6, 1, 2)
7.2.6 Rechenregeln fr die Matrizenmultiplikation
Satz 7.2.2.
K
n
A,A
0
K
n
B,B
0
K
r
C
K
s
1. A (B +B
0
) = A B +A B
0
- Distributivgesetz 1
2. (A+A
0
) B = A B +A
0
B - Distributivgesetz 2
3. A ( B) = ( A) B = (A B) - Homogenitt
4. A (B C) = (A B) C - Assoziativitt
5. I
m
A = A I
n
= A, I
m
=
_
_
_
1 . . . 0
.
.
.
.
.
.
.
.
.
0 . . . 1
_
_
_- Einheitsmatrix
6. (A B)
T
= B
T
A
T
Beweis. Seien die Matrizen wie oben angedeutet gegeben.
1.
A (B +B
0
) =
_
n

k=1
a
ik

_
b
kj
+b
0
kj
_
_
ij
=
_
n

k=1
a
ik
b
kj
+
n

k=1
a
ik
+b
0
kj
_
ij
=
_
n

k=1
a
ik
b
kj
_
ij
+
_
n

k=1
a
ik
+b
0
kj
_
ij
= A B +A B
0
2. zeigt man ebenso.
3. Klar.
4. Das folgt aus der Assoziativitt von .
88
5. Offensichtlich.
6. Es soll also folgendes Diagramm gelten
B
T
A
T
=
_
_
_
b
11
. . . b
n1
.
.
.
.
.
.
.
.
.
b
nr
. . . b
nr
_
_
_
_
_
_
a
11
. . . b
m1
.
.
.
.
.
.
.
.
.
a
1n
. . . a
mn
_
_
_
=
_
_
_
_
_
_
_
n

j=1
b
j1
a
1j
. . .
n

j=1
b
j1
a
mj
.
.
.
.
.
.
.
.
.
n

j=1
b
jr
a
rj
. . .
n

j=1
b
jr
a
mj
_
_
_
_
_
_
_
= (A B)
T
7.2.7 Matrizen bilden einen Ring
Folgerung. K
nn
ist also ein Ring mit Eins. (Klar, denn End(V )

= K
nn
ist auch
ein Ring, vergleiche Satz 5.1.1.)
7.2.8 Darstellungsmatrizen von Isomorphismen
Lemma 7.2.8.1.
K
n
A
K
n
B
K
r
Es gilt:
rg(A B) _ min(rg(A), rg(B))
rg(A) + rg(B) n _ rg(A B)
89
Beweis. Im Grunde kann das Diagramm eingeschrnkt werden auf
im(A B)
A|
im B
imB
B
K
r
Denn es ist im(A B) imA, also auch rg(A B) _ rg(A). Nach Dimensionsformel
gilt weiterhin
dim(imB) = dim(im(A B)) + dim(ker A|
imB
)
also rg(B) _ rg(A B), zusammen also rg(A B) _ min(rg(A), rg(B)).
Fr den zweiten Punkt lsst sich auch aus der Formel schlieen
rg(A B) = rg(B) dim(ker A|
imB
)
_ rg(B) dim(ker A)
Die Dimensionsformel auf A angewandt:
dim(K
n
) = dim(imA) + dim(ker A) =dim(ker A) = n rg(A)
Oben eingesetzt erhlt man schlielich
rg(A B) _ rg(B) + rg(A) n
Welche Matrizen A K
nn
entsprechen nun den Isomorphismen von K
n
?
Fr einen Isomorphismus F : K
n
K
n
gibt es eine Umkehrabbildung F
1
: K
n

K
n
, sodass gilt F
1
F = id
K
n. Entsprechend deniert man
Denition 7.4. A K
nn
heit invertierbar, wenn es ein A
0
K
nn
gibt, sodass
A
0
A = I (I = I
n
- Einheitsmatrix)
Von bijektiven Abbildungen bertrgt sich
Wenn A
0
A = I, dann auch A A
0
= I.
Die Inverse sind eindeutig.
7.2.9 General linear group
Proposition 7.2.2. Die Menge GL(n, K) der invertierbaren K
nn
Matrizen ist eine
Gruppe bezglich der Matrizenmultiplikation.
Beweis. Klar, denn GL(n, K) ist die symmetrische Gruppe des K
n
, vergleiche Ab-
schnitt 2.1.5.
Es werden die Gruppenaxiome gezeigt:
G1 Seien A, B GL(n, K), d.h. A
1
und B
1
existieren. Zu zeigen ist: A B
GL(n, K).
Behauptung: Die inverse Matrix ist (A B)
1
= B
1
A
1
.
(A B)
_
B
1
A
1
_
= A
_
B B
1
_
A
1
= A I A
1
= A A
1
= I
Assoziativitt folgt daraus, dass K
nn
ein Ring ist.
G2 I ist das neutrale Element.
G3 Xper Denition.
Folgerung.
_
A
1
_
1
= A
90
7.2.10 Charakterisierung invertierbarer Matrizen
Proposition 7.2.3. Fr A K
nn
ist quivalent
i) A GL(n, K)
ii) A
T
GL(n, K)
iii) rg(A) = n
Beweis. Es wird jeweils gezeigt
i) =ii) Es gilt
I = I
T
=
_
A A
1
_
T
=
_
A
1
_
t
A
T
Also ist
_
A
1
_
T
Inverses zu A
T
.
ii) =i) Wegen
_
A
T
_
T
= A gilt mit demselben Argument wie eben: Wenn A
T
invertier-
bar, dann A invertierbar.
i) =iii) Ist A invertierbar, so folgt aus dem Lemma
n = rg(I) = rg(A
1
A) _ min(rg(A
1
), rg(A))
Mit rg(A) _ n folgt sofort rg(A) = n.
iii) =i) Ist hingegen rg(A) = n, dann ist dim(imA) = n, also A surjektiv. Aus der Di-
mensionsformel folgte daraus die Bijektivitt von A, also ist A Isomorphismus.
7.2.11 Beispiele
Sei K = F
2
. F
22
2
hat 16 Elemente. Davon sind die folgenden die Elemente der
GL(2, F
2
)

1 0
0 1

. .
selbstinvers
,

1 1
0 1

. .
selbstinvers
,

1 1
1 0

0 1
1 1

. .
invers zueinander
,

1 0
1 1

. .
selbstinvers
,

0 1
1 0

. .
selbstinvers
Wie man leicht berprft, gilt fr A =

1 1
1 0

, B =

0 1
1 0

A
3
= I, B
2
= I, B A = A
2
B
Damit ist
GL(2, F
2
) =
_
I, A, A
2
, B, BA, BA
2
_

= S
3
(Permutationsgruppe)
Denn auch fr =

1 2 3
2 3 1

, =

1 2 3
2 1 3

gilt

3
= id,
2
= id, =

1 2 3
1 3 2

=
2

91
7.2.12 Interessante Untergruppen der GL(n,K)
1. Diagonalmatrizen, deren Diagonalenelemente ,= 0 sind.
_
_
_
_
_
x
1
0 . . . 0
0 x
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . x
n
_
_
_
_
_

_
_
_
_
_
y
1
0 . . . 0
0 y
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . y
n
_
_
_
_
_
=
_
_
_
_
_
x
1
y
1
0 . . . 0
0 x
2
y
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . x
n
y
n
_
_
_
_
_
2. Obere Dreiecksmatrizen, deren Diagonalenelemente ,= 0 sind. Hier exempla-
risch fr n = 3
_
_
a
1
a
2
a
3
0 a
4
a
5
0 0 a
6
_
_

_
_
b
1
b
2
b
3
0 b
4
b
5
0 0 b
6
_
_
=
_
_
a
1
b
1

0 a
2
b
2

0 0 a
3
b
3
_
_
3. Fr n = 2 und K = R die Rotationsmatrizen.

cos sin
sin cos

cos sin
sin cos

cos cos sin sin cos sin sin cos


sin cos + cos sin sin sin cos cos

cos( +) sin( +)
sin( +) cos( +)

4.
=

a b
b a

| a, b R
_
\

0 0
0 0

ist Untergruppe von GL(2, R).

a b
b a

c d
d c

ac bd ad bc
bc +ad bd +ac

ist ein Untervektorraum von R


22
mit der Dimension dim = 2. Beispiels-
weise ist

1 0
0 1

0 1
1 0

Basis von .
: C
a +bi

a b
b a

ist ein Vektorraumisomorphismus (fasst man Cals 2-dimensionalen R-Vektorraum


auf). ist zudem vertrglich mit der komplexen Multiplikation, ist also sogar ein
Krperisomorphismus.
Damit sind die Elemente von Cauf dem Einheitskreis isomorph zur Untergruppe
der Rotationen (vergleiche die Matrixdarstellungen!).
92
7.2.13 Koordinatensysteme
Sei V ein K-Vektorraum mit einer Basis B = (v
1
, . . . , v
n
). Wie in man aus der Fol-
gerung 7.1.2.1 des Satzes der linearen Fortsetzung abliest, gibt es fr jedes v V ein
eindeutigen Vektor (x
1
, . . . , x
n
) K
n
mit
x
1
v
1
+. . . +x
n
v
n
= v
Denition. Die x
i
heien die Koordinaten von v bezglich B.
Die Abbildung der angesprochenen Folgerung

B
: K
n
V

B
(e
i
) = v
i
\ i = 1, . . . , n
heit das von B induzierte Koordinatensystem.
7.2.14 Transformationen zwischen Koordinatensystemen
Illustration
Die Abbildung
1
B

A
ist ein Isomorphismus, d.h. es existiert genau eine Matrix
T
A
B
GL(n, K), die
1
B

A
darstellt.
Denition. T
A
B
ist die Transformationsmatrix zum Basiswechsel.
Sei v V , A = (v
1
, . . . , v
n
), B = (w
1
, . . . , w
n
) Basen von V und
v =

x
i
v
i
, v =

y
i
w
i
so muss gelten
T
A
B
_
_
_
x
1
.
.
.
x
n
_
_
_ =
_
_
_
y
1
.
.
.
y
n
_
_
_
Speziell fr V = K
n
sind
A
,
B
durch Matrizen A, B GL(n, K) gegeben.
93
Wenn w
j
= s
1j
v
1
+. . .+s
nj
v
n
fr alle Basisvektoren w
j
aus B, so sei S = (s
ij
)
die Matrix der Koefzienten. Dann gilt
S e
j
= s
j
= s
1j
e
1
+. . . +s
nj
e
n
und schlielich

A
(S e
j
) =
A
(s
1j
e
1
+. . . s
nj
e
n
) = s
1j
v
1
+. . . +s
nj
v
n
= w
j
=
B
(e
j
)
Also hat man
A
S =
B
, bzw. S =
1
A

B
=
_
T
A
B
_
1
= T
B
A
.
7.2.15 Beispiel
Sei V = R[x]
2
der Vektorraum der Polynome vom Grad _ 2.
A =
_
1, x, x
2
_
, B =
_
1 +x, 1 +x
2
, x +x
2
_
sind Basen von V .
So liest man leicht ab
T
B
A
= S =
_
_
1 1 0
1 0 1
0 1 1
_
_
Wie man leicht berprft, gilt
1 =
1
2

(1 +x) +
_
1 +x
2
_

_
x +x
2
_
x =
1
2

(1 +x)
_
1 +x
2
_
+
_
x +x
2
_
x
2
=
1
2

(1 +x) +
_
1 +x
2
_
+
_
x +x
2
_
wonach man erhlt
T
A
B
= T =
_
_
1
2
1
2

1
2
1
2

1
2
1
2

1
2
1
2
1
2
_
_
7.2.16 Koordinatensysteme und Darstellung linearer Abbildungen
Wir kennen
94
Das Diagramm kommutiert, d.h. F
A
=
B
M
A
B
(F).
Sind A = (v
1
, . . . , v
n
) , B = (w
1
, . . . , w
n
) Basen von V und gilt
F(v
j
) =
m

i=1
a
ij
w
i
dann ist M
A
B
(F) = (a
ij
).
Koordinatentransformationen sind ein Spezialfall:
mit M
A
B
(id) = T
A
B
.
7.2.17 Darstellung der Komposition linearer Abbildungen
Satz 7.2.3. Sind U, V, W K-Vektorrume mit Basen A, B, C und G : U V, F :
V W linear, dann gilt
M
A
C
(F G) = M
A
B
(F) M
B
C
(G)
Beweis. Es gilt
M
B
C
(F) =
1
C
F
B
, M
A
B
(G) =
1
B
G
A
95
und damit
M
A
B
(F) M
B
C
(G) =
_

1
C
F
B
_

1
B
G
A
_
=
1
C
(F G)
A
=: M
A
C
(F G)
7.2.18 Transformation der Darstellungsmatrix bei Basiswechsel
Korollar. Seien V, W K-Vektorrume, F : V W linear und A, A
0
Basen von
V sowie B, B
0
Basen von W. Dann gilt fr die Darstellungsmatrizen bezglichd der
verschiedenen Basen
M
A
0
B
0 (F) = T
B
B
0 M
A
B
(F)
_
T
A
A
0
_
1
Folgerung 7.2.18.1. Ist F ein Endomorphismus auf V und A, B Basen von V , dann
gilt
M
B
(F) = T
A
B
M
A
(F) T
B
A
7.2.19 Beispiel
Sei A = (v
1
, . . . , v
n
) Basis von V und F V V eine Endomorphismus mit
F(v
1
) = v
1
, F(v
2
) = 2v
1
+v
2
, F(v
3
) = 2v
1
+v
3
so hat man
M
A
(F) =
_
_
1 2 2
0 1 0
0 0 1
_
_
Sei B = (w
1
, . . . , w
n
) eine zweite Basis von V mit
w
1
= v
1
, w
2
= v
1
+v
2
, w
3
= v
2
+v
3
Als Basistransformationsmatrizen hat man
T
A
B
=
_
_
1 1 0
0 1 1
0 0 1
_
_
, T
B
A
=
_
_
1 1 1
0 1 1
0 0 1
_
_
Die Darstellungsmatrix von F bezglich B ist also
M
B
(F) = T
A
B
M
A
(F) T
B
A
=
_
_
1 0 0
0 1 0
0 0 1
_
_
96
Lemma 7.2.19.1. Sei F : K
n
K
m
eine lineare Abbildung mit rg(F) = r, dann
gibt es Basen A von K
n
und B von K
m
, sodass
M
A
B
(F) =

I
r
0
0 0

Beweis. Sei dazu (v


1
, . . . , v
k
) eine Basis von ker F und (w
1
, . . . , w
r
) eine Basis von
imF.
Whle fr i = 1, . . . , r Vektoren u
i
A
1
(w
i
), so ist A := (u
1
, . . . , u
r
, v
1
, . . . , v
k
)
eine Basis von K
n
(nach Homomorphiesatz).
Ergnze (w
1
, . . . , w
r
) zu einer Basis B := (w
1
, . . . , w
m
) von K
m
.
Die Darstellung von F bezglich A und B ist dann wie gewnscht, denn in den ersten
r Spalten stehen die Koordinaten der Bilder w
i
der u
i
unter F bezglich B, also e
i
. In
den restlichen Spalten stehen die Koordinaten der Bilder o der v
i
unter F bezglich B,
also o.
7.2.20 Zeilenrang = Spaltenrang die Zweite
Es wird gezeigt
\ M K
mn
: ZRg(M) = SRg(M)
Lemma 7.2.20.1. Ist A K
mn
, S GL(m, K) und T GL(n, K), dann ist
SRg(A) = SRg(SAT)
Beweis. Es ist SRg(A) = dim(imA) = dim(imSAT) = SRg(SAT), da weder T
noch S den Bildraum ndern.
Lemma 7.2.20.2. Sind A, S, T wie oben, dann ist auch ZRg(A) = ZRG(SAT).
Beweis. Es gilt wie eben SRg(A
T
) = SRg(T
T
A
T
S
T
), also ZRg(A) = SRg(A
T
) =
SRg(T
T
A
T
S
T
) = ZRg(SAT).
97
Beweis. des Satzes:
Zu M gibt es invertierbare Matrizen S und T, sodass SMT =

I
r
0
0 0

, wobei r =
dim(imM) = SRg(M). Damit gilt
SRg(M)
Lemma 7.2.20.1
= SRg(SMT)
offensichtlich
= ZRg(SMT)
Lemma 7.2.20.2
= ZRg(M)
Denition 7.5. Zwei Matrizen M, M
0
K
mn
heien quivalent, wenn es S
GL(m) und T GL(n) gibt, sodass M
0
= SMT
1
.
Bemerkung. Wir haben gesehen, dass jede Matrix durch Zeilen- und Spaltentransfor-
mationen auf die Gestalt

I
r
0
0 0

gebracht werden kann.


Zeilen und Spaltentransformationen knnen durch Matrixmultiplikation mit Matrizen
aus GL() realisiert werden. Das heit, jede Matrix ist quivalent zu einer Matrix der
obigen Gestalt. R ist der Rang der Matrix.
Denition 7.6. A, B K
nn
sind hnlich, wenn es ein S GL(n) gibt, mit B =
SAS
1
.
Bemerkung. hnliche Matrizen beschreiben den selben Endomorphismus (lineare Ab-
bildung von V V ) bezglich verschiedener Basen.
7.2.21 Elementarmatrizen und Matrixumformungen
Wir hatten elementare Zeilenumformungen verschiedener Typen (4.4.5). Diese Umfor-
mungen sollen durch Matrizen realisiert werden.

ij
sei die Matrix, die an der Stelle ij eine 1 hat und sonst ausschlielich Nullen. Fr
i _ m und i ,= j sowie K

sei
S
i
() := I
m
+ ( 1)
ii
Q
j
i
:= I
m
+
ij
Q
j
i
() := I
m
+
ij
P
j
i
:= I
m

ii
+
ij

jj
+
ij
Proposition 7.2.4. Die Zeilenumformungen A
I
, A
II
, A
III
, A
IV
werden durch die
Multiplikation (von links) mit den Matrizen S
i
(), Q
j
i
, Q
j
i
(), P
j
i
realisiert.
Beweis. Nachrechnen!
Proposition 7.2.5. Die Spaltenumformungen A
I
, A
II
, A
III
, A
IV
werden durch die
Multiplikation (von rechts) mit den Matrizen S
i
(), Q
j
i
, Q
j
i
(), P
j
i
realisiert.
(Allerdings sind diese aus K
nn
zu whlen.)
Bemerkung. Typ III und Typ IV lassen sich aus den Typen I und II zusammensetzen.
Q
j
i
() = S
i
(
1

)Q
j
i
S
i
()
P
j
i
= S
j
(1)Q
j
i
Q
i
j
(1)Q
j
i
98
Lemma 7.2.21.1. Die Elementarmatrizen sind invertierbar. Ihre Inversen sind ebenfalls
Elementarmatrizen.
Beweis.
(S
i
())
1
= S
i
(
1

)
(Q
j
i
())
1
= Q
j
i
()
(P
j
i
)
1
= P
j
i
Satz 7.2.4. Jede Matrix A GL(n) ist Produkt aus Elementarmatrizen.
Beweis.
Schritt 1: Aus A kann durch Zeilenumformungen eine quivalente Matrix in Zei-
lenstufenform erzeugt werden. (A GL(n) d.h. rg(A) = n)
B =
_
_
_
_
_
b
11
. . .
0 b
22
. . .
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . b
nn
_
_
_
_
_
Es gilt b
ii
,= 0, \i. Also SA = B. S ist Produkt von Elementarmatrizen.
Schritt 2: Aus B bekommen wir durch eine Folge weiterer Zeilenumformungen
Diagonalgestalt.
D =
_
_
_
_
_
d
11
0 . . . 0
0 d
22
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . d
nn
_
_
_
_
_
Also TB = D. T ist Produkt von Elementarmatrizen.
Schritt 3: D
1
D = I
n
D
1
ist Produkt von Elementarmatrizen. Also
D
1
TSA = I
n
=A = (D
1
TS)
1
I
n
= S
1
T
1
D
Das Ergebnis ist ein Produkt aus Elementarmatrizen.
Aus dem Beweis kann man ein einfaches Rechenverfahren zur Bestimmung der
Inversen einer Matrix ableiten.
1. Transformiere A durch Zeilenumformungen in I
n
(wie im Beweis).
2. Diese Folge von Zeilenumformungen aus I
n
angewandt liefert A
1
(= D
1
TS).
99
8 Permutationen
Das Signum einer Permutation ist ntig fr Determinanten.
Ziel: 3 Arten des Signum zu denieren.
sgn() = (1)
1z()
z = Zyklenanzahl
= (1)
#Transpositionen in einer Transpositionsproduktdarstellung
= (1)
#Inversionen
8.1 Denitionen
8.1.1 Permutationen
Denition 8.1. Eine Permutation ist eine bijektive Abbildung
X X (fr uns ist X immer endlich, meistens ist X = [n] = 1, 2, . . . , n)
S
n
ist die Menge der Permutationen von [n] (frher Sym([n]))
Anzahl: |S
n
| = n(n 1)(n 3) . . . 1 = n!
Stirling Formel: n! ((
n
e
)
n
_
2n)
8.1.2 Beispiel und Darstellungen
=

1 2 3 4 5
3 2 5 1 4

1 2 3 4 5
3 1 2 5 4

1 2 3 4 5
2 1 4 3 5

Kompakte Darstellung:
1-Zeilen Notation = (32514), = (31254)
Zyklenschreibweise = (1354)(2) = (132)(45)
8.1.3 Zyklenzerlegung
Zyklenschreibweise ist mglich
a X endliche Menge
b Jedes Element x X ist Anfang einer Pfeilkante ( ist eine Funktion die auf
ganz X deniert ist)
c Jedes Element x X ist Ende einer Pfeilkante ( ist injektiv)
Lemma. Aus a, b, c folgt: X zerfllt in Mengen von disjunkten gerichteten Kreisen
(Zyklen).
Beweis. Idee: x x
0
x
00
... x
Wenn Element y erreicht wird:
100
Fall 1: y ist neu.
Fall 2: y war schon vorher erreicht.
Zyklenschreibweise ist eindeutig bis auf
Reihenfolge der Zyklen
Anfangselement in jedem der Zyklen
=Es gilt auch: = (54)(321)
8.1.4 Beispiel
Zahlen 1 . . . 6 werden in eine 2 3 Matrix Zeilenweise eingelesen und Spaltenweise
ausgelesen.
: 123456

1 2 3
4 5 6

142536
= (1)(6)(2453)
Frage: Wie viele Iterationen sind ntig um ursprnglichen Zustand herzustellen?

2
= (1)(6)(25)(43) (1-Zeilen Notation: (154326))

3
= (1)(6)(2354) (1-Zeilen Notation: (135246))

4
= (1)(6)(2)(3)(4)(5) = id (1-Zeilen Notation: (123456))
8.2 Zyklenstruktur
Denition 8.2. Der Typ einer Permutation S
n
ist der Ausdruck [1

1
2

2
. . . n

n
],
wobei
i
= # der i-Zyklen in der Zyklenanzahl von .
(Beitrge i

i
mit
i
= 0 lassen wir weg)
Typen von
: [2
1
3
1
]
: [1
2
4
1
]
Es gilt:
n

i=1
i
i
= n
Wir denieren
z() =
n

i=1

i
101
8.2.1 Exkurs: Konjugierte Permutationen
Denition 8.3. Permutationen , sind konjugiert, wenn es ein gibt, mit:
1
=
.
Satz 8.2.1. und sind konjugiert =die Typen von und sind gleich.
Beweis. (=) Sei
1
=
Betrachte einen Zykel von : (x
1
, x
2
, . . . , x
n
)
Behauptung: Wenn y
i
= (x
i
), dann ist (y
1
, y
2
, . . . , y
n
) ein Zykel von .
(y
i
) = ((x
i
))
=
1
((x
i
))
= (x
i
)
= (x
i+1
)
= y
i+1
=: , haben selben Typ.
Lege eine Zuordnung (Bijektion) zwischen Zyklen von und fest, sodass die einan-
der zugeordneten Zykel je die gleiche Lnge haben. Berechne Zykelweise.
Beispiel: Typ [1
1
2
3
5
1
]
: (1x)(357zy)(3)(48)(26)
: (x571y)(98)(42)(63)(2)
8.3 Transpositionen
Eine Transposition ist eine Permutation vom Typ [1
n2
2
1
].
Sie vertauscht 2 Elemente.
Schreibweise: (ij) lassen in Zyklenschreibweise alle 1-Zyklen weg.
Satz 8.3.1. Jede Permutation kann als Produkt von Transpositionen geschrieben wer-
den.
Beweis. Jede Permutation kann als Produkt von disjunkten (elementfremden) Zyklen
geschrieben werden. Jeder Zyklus kann als Produkt von Transpositionen geschrieben
werden.
z = (x
1
x
2
. . . x
n
) = (x
2
x
3
)(x
3
x
4
)(x
4
x
5
) . . . (x
k1
x
k
)(x
k
x
1
)
Bemerkung. Jeder Zyklus und jede Transposition ist eine Permutation fr sich.
Lemma. Sei eine Transposition und S
n
( S
n
), dann gilt:
z( ) {z() 1, z() + 1}
Beweis. Sei = (a, b). Wir unterscheiden zwei Flle:
a und b kommen in im selben Zyklus vor.
Sei = (x
i
, x
j
) und einer der Zyklen von sei
z = (x
1
x
2
. . . x
i
. . . x
j
. . . x
k
)
Das Produkt ist z = (x
1
x
2
. . . x
i1
x
j
x
j+1
. . . x
k
)(x
i
x
i+1
. . . x
j1
)
102
a und b kommen in verschiedenn Zyklen vor.
Satz 8.3.2. S
n
seien Darstellungen als Produkt von Transpositionen gegeben
=
r
. . .
1
=
r
0
. . .
1
0
dann sind r und r
0
entweder beide gerade oder beide ungerade (in anderen Worten
r r
0
0 mod 2).
Beweis. Betrachte die Folge von Permutationen:

0
= id

1
=
1
=
1
id

2
=
2

1

3
=
3

2

3
.
.
.

n
=
r
. . .
1
=
Es gilt z(
i+1
) = z(
i
) 1.
Sei in p Fllen z(
i+1
) = z(
i
) + 1 und in q Fllen z(
i+1
) = z(
i
) 1.
Es folgt:
p +q = r
z() = n +p q
Die zweite Darstellung liefert p
0
und q
0
, sodass
p
0
+q
0
= r
0
und
z() = n +p
0
q
0
N = p +q = p +n +p z()
N
0
= p
0
+q
0
= p
0
+n +p
0
z()
r r
0
= 2(p p
0
) also gerade
0 mod 2
Denition 8.4. Fr S
n
mit =
r
. . .
1
denieren wir
sgn() := (1)
r
Bemerkung.
Der Satz zeigt: Dieses Vorzeichen ist wohldeniert.
sgn() = (1)
nz()
weil (1)
nz()
= (1)
nz()+2n
= (1)
n
103
sgn() : S
n
{1; +1} (Mit der Multiplikation ist das eine Gruppe)
sgn ist ein Gruppenhomomorphismus.
sgn( ) = sgn() sgn()
=
r
. . .
1
sgn() = (1)
r
=
0
s
. . .
0
1
sgn() = (1)
s
= =
0
s
. . .
0
1

r
. . .
1
sgn( ) = (1)
r+s
sgn(id) = +1 -id ist neutrales Element bezglich der Multiplikation.
Kern dieser Abbildung ist A
n
= sgn
1
(+1) und ist somit die Untergruppe der
geraden Permutationen.
|A
n
| =
n!
2
8.3.1 Benachbarte Transpositionen
Denition 8.5. Eine Transposition S
n
mit = (i, i + 1) ist eine benachbarte
Transposition.
Proposition 8.3.1. Jedes S
n
ist als Produkt von benachbarten Transpositionen
darstellbar.
Beweis. Es gengt jede Transposition so darzustellen (i < j):
(i, j) =(i, i + 1)(i + 1, i + 2) . . . (j 2, j 1)(j 1, j)
(j 2, j 1) . . . (i + 1, i + 2)(i, i + 1)
8.3.2 Inversionen
Denition 8.6. Eine Inversion von ist ein Paar i, j mit i < j und (i) > (j)
(Inversionen sind Kreuzungen im Permutationsdiagramm)
Beispiel: =

1 2 3 4 5
4 1 5 2 3

Inversionen: 1, 2; 1, 4; 1, 5; 3, 4; 3, 5
Bemerkung. kann mit #Inversionen vielen (benachbarten) Transpositionen sortiert
werden.
=sgn() = (1)
Inv()
wobei Inv() = Anzahl der Inversionen von .
104
9 Determinanten
9.1 Determinanten von Matrizen
Denition 9.1. Eine Abbildung det : K
nn
K ist eine Determinante, wenn gilt:
D1 det ist linear in jeder Zeile.
D2 det ist alternierend.
D3 det ist normiert.
Bemerkung. Linear bedeutet:
det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
1
n
_
_
_
_
_
_
_
_
= det
_
_
_
a
1
.
.
.
a
n
_
_
_
det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
+a
0
i
.
.
.
a
n
_
_
_
_
_
_
_
_
= det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
+ det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
0
i
.
.
.
a
n
_
_
_
_
_
_
_
_
Alternierend bedeutet, dass gilt: wenn zwei Zeilen von A gleich sind, so gilt det(A) =
0.
Normiert bedeutet, dass det(I
n
) = 1.
9.1.1 Eindeutigkeit
Lemma. (alternierend)
Entsteht B aus A durch Zeilenvertauschung
=det B = det A
105
Beweis.
0 = det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
+a
j
.
.
.
a
j
+a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
+ det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
+ det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
+ det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
j
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
= 0 + det A+ det B + 0
Lemma. Sei eine Permutation und I

=
_
_
_
_
_
e
(1)
e
(2)
.
.
.
e
(n)
_
_
_
_
_
, dann gilt: det I

= sgn().
Beweis. Wir schreiben als Produkt von Transpositionen =
r
. . .
1
. Nun gilt:
1. sgn() = (1)

2. Aus I

knnen wir durch r Zeilenvertauschungen die Einheitsmatrix I


n
erzeu-
gen.
=det(I

n
) = (1)
r
det(I
n
) = (1)
r
9.1.2 Die Leibniz Formel
Satz 9.1.1. (Leibniz Formel)
Wenn det eine Determinante ist, dann gilt:
det(A) =

2S
n
sgn() a
1(1)
a
2(2)
. . . a
n(n)
Beweis. Wir entwickeln die Determinante nach den Zeilen 1, 2, . . . , n und wenden
jeweils die Linearitt in jeder Zeile an.
A =
_
_
_
a
1
.
.
.
a
n
_
_
_, a
1
= a
11
e
1
+. . . +a
1n
e
n
106
det(A) = a
11
det
_
_
_
_
_
e
1
a
2
.
.
.
a
n
_
_
_
_
_
+. . . +a
1n
det
_
_
_
_
_
e
n
a
2
.
.
.
a
n
_
_
_
_
_
=
n

j
1
=1
a
1j
1
det
_
_
_
_
_
e
j
1
a
2
.
.
.
a
n
_
_
_
_
_
=
n

j
1
=1
n

j
2
=1
a
1j
1
a
2j
2
det
_
_
_
_
_
_
_
e
j
1
e
j
2
a
3
.
.
.
a
n
_
_
_
_
_
_
_
= . . .
det(A) =
n

j
1
=1
. . .
n

j
n
=1
a
1j
1
. . . a
nj
n
det
_
_
_
e
j
1
.
.
.
e
j
n
_
_
_
Wenn zwei der e
i
gleich, dann folgt daraus det() = 0.
Wenn alle verschieden sind, dann folgt (j
1
, . . . , j
n
) ist eine Permutation von
1, . . . , n, d.h. det() = I

= sgn().
Das Weglassen von berssigen Summanden (det() = 0) und Umschreiben liefert
die Leibnizformel.
Bis hier haben wir gezeigt: Die Leibniz Gestalt ist notwendig.
Es bleibt zu zeigen: Es gibt eine Determinante.
Zugang 1: berprfen der Eigenschaften D1, D2 und D3 fr die Leibnitz Entwicklung.
Zugang 2: Laplace Entwicklung der Determinante
9.1.3 Die Laplace Entwicklung
Denition 9.2. Sei A K
nn
. Mit A
ij
bezeichnen wir die (n1) (n1) Matrix,
die durch Streichen von Zeile i und Spalte j aus A entsteht.
Satz 9.1.2. (Laplace Entwicklung nach Spalte j)
Fr jedes j {1, . . . , n} ist die Determinante rekursiv gegeben als
det(A) =
n

i=1
(1)
i+j
a
ij
det(A
ij
)
Fr n = 1 gilt: det((a)) = a.
Beweis. Wir zeigen die Eigenschaften D1, D2 und D3 mit Induktion.
Fr n = 1 folgen die Eigenschaften unmittelbar.
Schritt fr D1:
107
Sei A =
_
_
_
_
_
_
_
_
a
1
.
.
.
a
k
.
.
.
a
n
_
_
_
_
_
_
_
_
und A

=
_
_
_
_
_
_
_
_
a
1
.
.
.
a
k
.
.
.
a
n
_
_
_
_
_
_
_
_
. Zu zeigen: det(A

) = det(A)
det(A

) =
n

i=1
(1)
i+j
a
ij
det(A

ij
)
=
n

i6=k
(1)
i+j
a
ij
det(A

ij
) + (1)
k+j
a
kj
det(A

kj
)
IV
=
n

i6=k
(1)
i+j
a
ij
det(A
ij
) + (1)
k+j
a
kj
det(A
kj
)
=
n

i=1
(1)
i+j
a
ij
det(A
ij
) = det(A)
Sei A =
_
_
_
_
_
_
_
_
a
1
.
.
.
a
0
k
+a
00
k
.
.
.
a
n
_
_
_
_
_
_
_
_
, A
0
=
_
_
_
_
_
_
_
_
a
1
.
.
.
a
0
k
.
.
.
a
n
_
_
_
_
_
_
_
_
und A
00
=
_
_
_
_
_
_
_
_
a
1
.
.
.
a
00
k
.
.
.
a
n
_
_
_
_
_
_
_
_
.
Zu zeigen: det(A) = det(A
0
) + det(A
00
)
A =
n

i=1
(1)
i+j
a
ij
det(A
ij
)
=
n

i6=k
(1)
i+j
a
ij
det(A
ij
) + (1)
k+j
a
0
kj
a
00
kj
det(A
kj
)
IV
=
n

i=a
(1)
i+j
a
0
ij
det(A
0
ij
) +
n

i=a
(1)
i+j
a
00
ij
det(A
00
ij
)
= det(A
0
) + det(A
00
)
Schritt fr D2:
Sei A =
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
r
.
.
.
a
s
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
und a
r
= a
s
. Zu zeigen: det(A) = 0.
det(A) =
n

i=1
(1)
i+j
a
ij
det(A
ij
)
108
Fr i ,= r, s enthlt A
ij
zwei gleiche Zeilen. =det(A
ij
) = 0. Daraus folgt:
det(A) = (1)
j+r
a
rj
det(A
rj
) + (1)
j+s
a
sj
det(A
sj
)
Sei t = s r. A
sj
kann duch t 1 Zeilenvertauschungen in A
rj
berfhrt werden.
det(A) = [(1)
r+j
a
rj
+ (1)
s+j
a
sj
(1)
t1
] det(A
rj
)
= [(1)
r+j
+ (1)
s+j
(1)
sr1
]a
rj
det(A
rj
)
= [(1)
r+j
+ (a)
2sr+j1
]a
rj
det(A
rj
)
= [(1)
j
((1)
r
+ (1)
r1
)]a
rj
det(A
rj
)
= [(1)
j
((1)
r
+ (1)
r+1
)]a
rj
det(A
rj
)
= 0 a
rj
det(A
rj
) = 0
Schritt fr D3:
det(I
n
) =
n

i=1
(1)
i+j
e
ij
det(I
ij
)
Fr jedes i ,= j enthlt I
ij
eine 0-Zeile =det(I
ij
) = 0 bzw e
ij
= 0.
=det(I
n
) = (1)
i+j
e
ij
det(I
ij
)
= 1 det(I
n1
) = 1
9.1.4 Wie efzient ist die Determinantenberechnung?
Nach Leibniz existieren n! Summanden mit je n Multiplikationen. Daraus folgt,
der Aufwand wchst mit (n
n
).
Nach Laplace entsteht eine Baumstruktur mit n! Blttern. Daraus folt, dass der
Aufwand auch hier mit (n
n
) wchst.
Somit lassen sich beide Methoden nur fr n _ 4 per Hand anwenden oder fr n _ 13
per Computer.
9.1.5 Determinanten und Volumina
Ein Spat ist ein Parallelepiped.
spat(a
1
, a
2
, . . . , a
n
) =
_
x =

i
a
i
| 0 _
i
_ 1
_
Satz 9.1.3. | det
_
_
_
a
1
.
.
.
a
n
_
_
_| = Vol
n
(spat(a
1
, . . . , a
n
)), wenn a
i
R
n
Beweis. berprfe D1, D2 und D3.
D2 Wenn die Vektoren nicht linear unabhngig, folgt, dass es kein n-dimensionales
Volumen gibt.
109
D3 Die Einheitsvektoren erfllen die gewnschte Bedingung.
D1 a
i
a
i
entspricht dem Skallieren in eine Richtung.
a
0
i
= a
i
+n
i
stimmt auch.
9.2 efziente Berechnung von Determinanten
Satz 9.2.1. Die Determinante der Diagonalmatrix D =
_
_
_

1
. . . 0
.
.
.
.
.
.
.
.
.
0 . . .
n
_
_
_ist:
det(D) =
1
. . .
n
.
Beweis. via Leibniz:
det(0) =

2S
n
sgn()d
1(a)
. . . d
n(n)
\ ,= id : i mit (i) ,= i =d
i(i)
= 0
Auerdem gilt: sgn(id) = +1
9.3 Elementar Zeilenumformungen
A
I
: A =
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
A
0
=
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
, Skalar ,= 0
=det(A
0
) = det(A)
A
II
: A =
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
A
0
=
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
i
+a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
=det(A
0
) = det(A)
Man verwende die Umformungen vom Typ I und II um A in eine Matrix der Gestalt
A
_
_
_
a
0
11
. . .
.
.
.
.
.
.
.
.
.
0 . . . a
0
nn
_
_
_
_
_
_
a
00
11
. . . 0
.
.
.
.
.
.
.
.
.
0 . . . a
00
nn
_
_
_ = A
D
zu bringen oder whrend der Umformungen entsteht eine Nullzeile.
Es gilt: det(A) = Produkt gewisser Skalare a
00
11
. . . a
00
nn
, oder wenn eine Nullzeile
auftritt, det(A) = 0.
110
Bemerkung. Man kann die Umformungen auch durch Produkte mit den Matrizen S
i
()
und Q
j
i
realisieren:
A
D
= B
k
. . . B
1
A, wobei B
i
Elementarmatrizen sind.
Proposition 9.3.1. Sei B K
nn
. Es gilt:
det(B) = 0 =rg(B) < n
Beweis. (=) Sei rg(B) < n, d.h. es gibt eine lineare Abhngigkeit auf den Zeilen
b
i
=

j6=i

j
b
j
det(B) = det
_
_
_
_
_
_
_
_
b
1
.
.
.

j6=i

j
b
j
.
.
.
b
n
_
_
_
_
_
_
_
_
==

j6=i

j
det
_
_
_
_
_
_
_
_
b
1
.
.
.
b
j
.
.
.
b
n
_
_
_
_
_
_
_
_
= 0
Die letzte Gleichheit gilt, da b
j
immer in der i-ten Zeile steht.
(=) Sei rg(B) = n = B kann durch elementare Umformungen in Digonalform ge-
bracht werden, wobei alle Diagonalelemente ,= 0.
det(B) =s v det(B
D
) = s v b
00
11
. . . b
00
nn
,= 0
s - Produkt von Skalaren ,= 0 die vom Typ I Transformationen kommen.
v - (1)
p
, wobei p die Anzahl der Zeilenvertauschungen ist.
Satz 9.3.1. Seien A, B K
nn
. Es gilt:
det(A B) = det(A) det(B)
Beweis. Fall I: rg(B) < n
=rg(A B) < n
=Beide Seiten sind null.
Fall II: rg(B) = n =det(B) ,= 0
Wir betrachten

B
: K
nn
K

B
: A
1
det(B)
det(A B)
Zu zeigen: D1, D2 und D3 fr
B
.
Zu D1:
B
ist linear in jeder Zeile von A. Die i-te Zeile von A geht nur in die i-te
Zeile von A B ein.
c
ij
=

k
a
ik
b
kj

B
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
=
B
(A) gilt trivialer weise.
111
Sei a
i
= s
i
+t
i
c
ij
=

k
(s
ik
+t
ik
)b
kj
=

k
s
ik
b
kj
+

k
t
ik
b
kj
= c
0
ij
+c
00
ij
A B =
_
_
_
_
_
_
_
_
c
1
.
.
.
c
0
i
+c
00
i
.
.
.
c
n
_
_
_
_
_
_
_
_
=det(A B) ist linear in i-ter Zeile.
=det(A B) = det
_
_
_
_
_
_
_
_
c
1
.
.
.
c
0
i
.
.
.
c
n
_
_
_
_
_
_
_
_
+ det
_
_
_
_
_
_
_
_
c
1
.
.
.
c
00
i
.
.
.
c
n
_
_
_
_
_
_
_
_
=
B
(A) =
B
_
_
_
_
_
_
_
_
a
1
.
.
.
s
i
.
.
.
a
n
_
_
_
_
_
_
_
_
+
B
_
_
_
_
_
_
_
_
a
1
.
.
.
t
i
.
.
.
a
n
_
_
_
_
_
_
_
_
, d.h.
B
ist linear in i-ter Zeile. ! Zu D2:
B
ist
alternierend. Wenn a
i
= a
j
=Das Produkt A B hat identische i-te und j-te Zeile
=det(A B) = 0 =
B
(A) = 0
Zu D3:
B
ist normiert

B
(I
n
) =
1
det(B)
det(I
n
B) =
det(B)
det(B)
= 1
Somit erfllt
b
D1, D2 und D3, d.h.
B
(A) = det(A). Aus
det(A) =
1
det(B)
det(A B)
folgt unmittelbar die Behauptung.
9.4 Determinante der Transponierten
Unsere Denition von Determinanten ist Zeilenorieniert. Spaltenorientiert hiee es:
D1
0
det ist linear in jeder Spalte
D2
0
Wenn zwei Spalten gleich sind, so ist det() = 0
112
D3
0
Es gilt: det(I
n
) = 1
Lemma. \ S
n
gilt: sgn() = sgn(
1
)
Beweis. in drei Varianten
1) sgn ist ein Gruppenhomomorphismus. =sgn(
1
) = sgn() sgn(
1
)
2) =
1
. . .
r
Produkt von Transpositionen
=
1
=
r
. . .
1
=sgn() = (1)
r
= sgn(
1
)
3) ber die Zyklenschreibweise: Wenn (a
1
, . . . , a
k
) ein Zykel von ist, dann gilt:
sgn() = (1)
n#Zyklen
= sgn(
1
)
Satz 9.4.1. Fr A K
nn
gilt: det(A) = det(A
T
)
Beweis. mit Hilfe der Leibnitz-Formel
det(A) =

2S
n
sgn()a
1(1)
. . . a
n(n)
det(A
T
) =

2S
n
sgn()a
T
1(1)
. . . a
T
n(n)
=

2S
n
sgn()a
(1)1
. . . a
(n)n
Umordnung
=

2S
n
sgn()a
1
1
(1)
. . . a
n
1
(n)
=

2S
n
sgn(
1
)a
1(1)
. . . a
n(n)
Mit Hilfe des vorangegangenen Lemmas folgt die Behauptung.
Alternativbeweis 1:
Beweis. Durch Multiplikation mit Elementarmatrizen B
i
kann man A in eine Diago-
nalmatrix A
D
umformen:
A
D
= B
k
B
k1
. . . B
1
A =
A = B
1
1
. . . B
1
k1
B
1
k
A
D
=
det(A) =
_
k

i=1
det
_
B
1
i
_
_
det
_
A
D
_
Transponieren in der zweiten Zeile ergibt
A
T
=
_
A
D
_
T

_
B
1
k
_
T

_
B
1
k1
_
T
. . .
_
B
1
1
_
T
=
det(A
T
) =
_
k

i=1
det
_
B
1
i
_
T
_
det
_
A
D
_
T
=
_
k

i=1
det
_
B
1
i
_
T
_
det
_
A
D
_
113
Es gengt nun zu zeigen, dass det
_
B
1
i
_
= det
_
B
1
i
_
T
.
Es gilt (siehe Elementarmatrizen)
S
i
() = (S
i
())
T
det

Q
j
i

= 1 = det
_
Q
i
j
_
= det (I
n
+
ji
) = det
_
I
T
n
+
T
ij
_
= det

Q
j
i

T
Alternativbeweis 2:
Beweis. Untersuche die Abbildung
det
T
: A det
_
A
T
_
auf die Eigenschaften D1, D2 und D3 einer Determinante. Aus der Eindeutigkeit der
Determinantenfunktion folgt det
T
= det, also det
T
(A) = det(A) fr alle quadrati-
schen Matrizen A.
9.4.1 Matrixinversion und Determinanten
Satz 9.4.2. Sei A K
nn
und bezeichne A
ij
den Minor von A, der durch Streichung
von Zeile i und Spalte j entsteht. Deniere weiterhin

a
ij
= (1)
i+j
det(A
ij
),

A =
_

a
ij
_

A :=

A
T
bezeichnet man also die Komplementre von A.
Wenn det(A) ,= 0, so ist
A
1
=
1
det A


A
Beweis. Es gilt

A

A

ij
=
n

k=1
a
ik
a
kj
=
n

k=1
a
ik


a
jk
=
n

k=1
a
ik
(1)
j+k
det(A
jk
)
Im Falle i = j ergibt sich

A

A

ii
=
n

k=1
(1)
i+k
a
ik
det(A
ik
)
Laplace
= det(A)
Fall i ,= j: Sei A
i!j
die Matrix, die aus A entsteht, indem die j-te Zeile durch die i-te
ersetzt wird. Es gilt
det
_
A
i!j
_
= 0 A
jk
= A
i!j
jk
det

A
i!j
jk

= (1)
ji
det

A
i!j
ik

Letzteres ergibt sich wie folgt: Ersetzt man in Adie j-te Zeile durch die i-te und streicht
dann die j-te Zeile, so enthlt die Submatrix immerhin noch den i-ten Zeilenvektor in
der (nach alter Zhlung) i-ten Zeile. Streicht man stattdessen die i-te Zeile, so enthlt
die Submatrix in der (nach alter Zhlung) j-ten Zeile den gelschten i-ten Zeilenvektor.
Die beiden unterschiedlichen Submatrizen lassen sich durch sukzessive Vertauschung
114
benachbarter Zeilen ineinander berfhren. Man braucht dazu genau |j i| Vertau-
schungen.
Man erhlt also

A

A

ij
=
n

k=1
a
ik
(1)
j+k
det

A
i!j
jk

=
n

k=1
a
ik
(1)
j+k
(1)
ji
det

A
i!j
ik

=
n

k=1
a
ik
(1)
2j+ki
det

A
i!j
ik

=
n

k=1
a
ik
(1)
k+i
det

A
i!j
ik

Laplace
= det
_
A
i!j
_
= 0
Damit ist gezeigt
A

A = det (A) I
n
.
9.4.2 Determinante und Gleichungssysteme - Cramersche Regel
Proposition 9.4.1. Das Gleichungssystem A x = b mit A K
nn
, b K
n
ist
eindeutig lsbar genau dann, wenn det A ,= 0.
Beweis. Es ist det A = 0 =rg A < n. Entweder liegt dann b , imA, d.h. Ax = b hat
keine Lsung. Oder es gibt ein x
0
mit Ax
0
= b. Wegen rg A < n ist ker A ,= {o}. Sei
also y ker A, y ,= o, dann gilt
A(x
0
+y) = Ax
0
+Ay = b +o = b
Also hat Ax = b mehrere Lsungen.
Ist det A ,= 0, so existiert die Inverse zu A. Also ist x = A
1
b die eindeutige
Lsung.
Satz 9.4.3. Ist det A ,= 0, dann ist die eindeutige Lsung x von Ax = b der Vektor
mit den Komponenten
x
i
=
det
_
b!i
A
_
det A
wobei
b!i
A die Matrix ist, die entsteht, in dem man die i-te Spalte von A durch b
ersetzt.
Beweis. Sei x
1
a
1
+x
2
a
2
+. . . +x
n
a
n
= b (d.h. x ist die Lsung des Gleichungs-
systems), dann gilt
x
1
a
1
+x
2
a
2
+. . . +x
n
a
n
= b =
x
1
a
1
+. . . +
_
x
i
a
i
b
_
+. . . +x
n
a
n
= b =
a
1
, a
2
, . . . ,
_
x
i
a
i
b
_
, . . . , a
n
sind linear abhngig =
det
_
a
1
a
2
. . .
_
x
i
a
i
b
_
. . . a
n
_
= 0 =
x
i
det
_
a
1
. . . a
i
. . . a
n
_
det
_
a
1
. . . b . . . a
n
_
= 0 =
x
i
det Adet
_
b!i
A
_
= 0
115
9.4.3 Determinate ohne Matrix
Denition 9.3. Sei f : V V ein Endomorphismus. V habe die Basis B.
Die Koordinatenabbildungen vermitteln eine lineare Abbildung A
f
, welche als Matrix
aufgefasst werden kann.
Man deniert det(f, B) = det(A
f
). Diese Denition ist sogar unabhngig von B,
also det(f) = det(A
f
).
Beweis. der Wohldeniertheit:
Seien A und B Basen von V , so gilt
B
f
= T
A
B
A
f
T
B
A
=
det (B
f
) = det
_
T
A
B
_
det(A
f
) det
_
T
B
A
_
= det
_
T
A
B
_
det
_
T
B
A
_
det(A
f
)
= det
_
T
A
B
T
B
A
_
det(A
f
)
= det (I) det(A
f
) = det(A
f
)
9.5 Anwendung der Determinanten in der Geometrie und diskre-
ten Mathematik
Beispiel: Pappus-Konuration
9.5.1 Matroide - diskrete Verallgemeinerung von linearer Unabhngigkeit
Seien v
1
, . . . , v
n
Vektoren aus einem d-dimensionalen Vektorraum.
Nenne I {1, . . . , n} unabhngig, wenn die Menge {v
i
| i I} linear unabhn-
gig. Die Menge I von unabhngigen Mengen heit das Unabhngigkeitssystem von
v
1
, . . . , v
n
.
Folgende Eigenschaften sind interessant:
(1) I J und J I =I I
(2) Wenn I, J I und |I| < |J| =x J, sodass I {x} I (Basisergnzungs-
satz).
Denition 9.4. Ein Matroid ist ein Paar (X, I) mit:
116
X ist eine endliche Menge
I 2
X
mit den Eigenschaften (1) und (2) (2
X
ist die Menge von Teilmengen
von X).
Beispiele:
Sei X die Menge von Vektoren (oder Indizes von Vektoren) aus K
d
, K Krper,
I Menge der unabhngigen Teilmengen.
Sei G = (V, E) ein Graph. M = (E, F) ist dann ein Matroid mit F - kreisfreie
Kantenmenge.
Es lsst sich folgendes beobachten: F F induziert auf V genau |V ||F| Komponen-
ten. Diese Beobachtung kann genutzt werden, um die Eigenschaft (2) fr das Matroid
(E, F) zu zeigen.
Sei X = {1, . . . , n} und S
1
. . . S
k
die Menge von disjunkten Teilmengen von X mit

S
i
= X.
I X ist unabhngig, wenn
|I S
i
| _ 1, \i = 1, . . . , k
(X, I, I die Menge der unabhngigen Teilmengen von X ist ein Matroid.
Denition 9.5. Ein Matroid heit linear, wenn es als Matroid einer Menge von Vekto-
ren im K
d
dargestellt werden kann.
Bemerkung: Zwei Matroide (X, I) und (Y, J) werden als gleich bezeichnet (wer-
den als Darstellung desselben Matroids aufgefasst), wenn:
Bijektion X

Y , sodass (I) = J
wobei {(I) | I I} =(I) = {(x) | x I}
Die obigen Beispiele sind alles lineare Matroide. Die Pappus-Konguration hingegen
zeigt: Es gibt Matroide, die nicht linear sind. Betrachten wir im folgenden ein Matroid
zur Pappus-Konguration. I ist unabhngig, wenn |I| _ 3 und I ist nicht die Gerade
{, , , } in der Pappus-Konguration.
Satz 9.5.1. Dieser Matroid ist nicht linear.
Beweis. Wir betrachten im folgenden homogene Koordinaten. Daraus folgt, dass die
Punkte Elemente des R
3
sind (wobei die dritte Koordinate 1 sei).
Wenn nun drei Punkte kollinear sind, folgt, dass sie in einem zweidimensionalen Un-
terraum des R
3
liegen und damit linear abhngig sind.
Drei nicht kollineare Punkte sind auerdem eine Basis des R
3
und somit linear unab-
hngig.
Es existiert eine projektive Transposition (erhlt Kollinearitt), die A auf
_
_
1
0
0
_
_
, a aus
_
_
0
1
0
_
_
und auf
_
_
0
0
1
_
_
abbildet (ohne Beweis).
Die Determinante von A, B, C ist kollinear. (Punkt P habe Koordinaten
_
_
p
1
p
2
p
3
_
_
)
=det(A, B, C) = 0 = B
2
C
3
B
3
C
2
117
Alle Geraden durch A liefern somit:
B
2
C
3
= B
3
C
2
|
2
c
3
=
3
c
2
|
3
b
2
=
2
b
3
Die Geraden durch a liefern:
b
3
c
1
= b
1
c
3
|
3
C
1
=
1
C
3
|
1

3
=
3

1
Die Geraden durch liefern schlielich:
B
1
c
2
= B
2
c
1
| b
1
C
2
= b
2
c
1
Betrachten wir nun das Produkt aller linken Seiten und setzen es gleich dem Produkt
aller rechten Seiten folgt nach Krzen:

1
=
1

2
=, , sind linear abhngig.
10 Codierungstheorie
Wir betrachten zunchst Fehlerkorrigierende Codes. Die Grundidee dabei ist, Redun-
danz in Nachrichten einzubauen.
10.1 Wiederholungen
Beispiel: Eine dreifache Wiederholung der 4 Bit Nachricht (1011) ergibt 1011 1011
1011. Tritt hchstens ein Fehler auf, so kann der Empfnger die Nachricht rekonstruie-
ren. Wenn die Fehlerrate des Kanals kleiner als
1
2
ist, dann ist die Kommunikation ber
den Kanal mglich.
Nun stellt sich die Frage, wie teuer ist eine betrachtete Fehlerkorrektur?
Denition. Sei der Preis eines Codes (die Informationsrate) wie folgt deeniert:
Informationsrate =
# Bits der Nachricht
# Bits die gesendet wurden
In unserem Beispiel ist die Informationsrate somit
1
3
. Man mchte die Informati-
onsrate sinnvoller Weise mglichst gro halten.
Betrachten wir nun binre Codes: Die Nachricht soll in Blcken der Lnge n codiert
werden. Die Eintrge aus dem Alphabet seien
|K endlicher Krper |F
2
binrer Fall
Ein Code ist eine Teilmenge C von F
n
2
mit |C| _ 2. Die Elemente von C sind die
Codewrter.
Der Empfnger sucht, wenn er r F
n
2
empfngt jenes w C, dass sich von r am
wenigsten unterscheidet.
118
10.2 Der Hamming Abstand
fr zwei Vektorne v, w mit Eintrgen aus X. Sei
d
H
(v, w) = | {i Index | v
i
,= w
i
} |
Das ist die Anzahl der Positionen, in denen sich v und w unterscheiden.
Proposition 10.2.1. d
H
ist eine Metrik auf X
n
.
1 d
H
(v, w) _ 0 und d
H
(v, w) = 0 =v = w
2 d
H
(v, w) = d
H
(w, v)
3 d
H
(u, w) _ d
H
(u, v) +d
H
(v, w)
Beispiel: X = F
2
und somit X
n
= F
n
2
n = 8 und v = (0, 1, 1, 0, 0, 1, 0, 1)
w = (1, 0, 1, 1, 0, 0, 0, 1)
Es gibt hnliche Abbildungen zwischen F
n
2
und Pot([n]) (Menge der Teilmengen von
{1, . . . , n})
v {i | v
i
= 1} = A
v
Es gilt: d
H
(v, w) = |A
v
A
w
| (Kardinalitt der Differenz)
Zum Dekodieren: Zu einem empfangenen v bestimme v
0
C, sodass d
H
(v, v
0
) mini-
mal ist.
Beispiel: C F
5
2
und C = {(0, 0, 0, 0, 0), (1, 0, 1, 0, 1), (1, 1, 1, 1, 1)}
wenn v = (1, 1, 1, 0, 0) dann d
H
(v, c
0
) = 3 , d
H
(v, c
1/2
) = 2 und d
H
(v, c
1
) = 2
Das Minimum wird nicht eindeutig angenommen. Aus diesem Grund ist das Dekodie-
ren nicht mglich.
Wenn v = (1, 1, 0, 0, 0) dann d
H
(v, c
0
) = 2 , d
H
(v, c
1/2
) = 3 und d
H
(v, c
1
) = 3 und
v wird somit zu c
0
dekodiert.
10.2.1 Kugeln bezglich des Hamming Abstandes
Die Kugel (ball) mit Radius t um v ist
B
T
(v) = {w | d
H
(v, w) _ t}
Proposition 10.2.2. Ein Code C kann t Fehler korrigieren
=\u, v C : B
t
(u) B
t
(v) = O
Beweis. (=) Angenommen es existieren u, v C mit B
t
(u) B
t
(v) ,= O. Sei
z B
t
(u) B
t
(v). Wenn z empfangen wird, dann sind unter der Hypothese es sind
hchstens t Fehler aufgetreten sowohl u als auch v mgliche Dekodierungen. Es kann
nicht entschieden werden, ob u oder v gesendet wurde.
(=) Wenn die Kugeln disjunkt sind gilt: Wird w empfangen und sind _ t Fehler auf-
getreten, folgt, dass es hchstens ein v C mit w B
t
(v) gibt. w wird somit zu v
dekodiert und die Fehler sind korrigiert.
Beispiel: c F
n
2
wie gehabt C = {c
0
, c
1/2
, c
1
}
C kann 0 Fehler korrigieren. Somit ist dies das beste t, dass die Proposition hergibt.
Aber in manchen Fllen knnen sogar 2 Fehler korrigiert werden.
119
Denition 10.1. d(C) = min {d
H
(u, v) | u, v C} heit Minimaldistanz von C.
Die Aufgaben der Codierungstheorie lassen sich nun wie folgt beschreiben: Kon-
struiere einen Code mit:
hoher Informationsrate
groer Minimaldistanz
algorithmisch efzienter Codierung und Decodierung,
wobei sich die ersten beiden Punkte als Kugelpackungsproblem zusammenfassen las-
sen.
Nun kommen wir zu einigen Beispielen von Codes:
Der Parittscode: C = {w F
n
2
| w hat eine gerade Anzahl von 1en}
Somit ist
|C| = 2
n1
Minimaldistanz: 2
Informationsrate:
n1
n
und der Code kann 1 Fehler erkennen, jedoch keinen korrigieren.
Der nchste Code sei wie folgt:
_
_
_
_
_
_
_
_
_
_
_
_
0000000 1111111
1000110 0111001
0100011 1011100
0010101 1101010
0001111 1110000
1001001 0110110
0101100 1010011
0011010 1100101
_
_
_
_
_
_
_
_
_
_
_
_
Dieser Code hat die Lnge 7, ermglicht 16 Codeworte, hat eine Informationsrate von
4
7
und eine Minimaldistanz von 3. Er kann einen Fehler korrigieren.
Kommen wir zum Tripple-Check-Code. Dieser sei wie folgt:
T = {(a, b, c, x, y, z)} F
6
2
Dabei sei a + b = x, a + c = y und b + c = z. Somit ist |T| = 2
3
= 8 und die
Informationsrate
1
2
. Seien u, v T, sodass:
d
H
(a
u
, b
u
, c
u
), (a
v
, b
v
, c
v
)) = 1; 2; 3
=d
H
(x
u
, y
u
, z
u
), (x
v
, y
v
, z
v
)) = 2; 2; 0
also d
H
u, v = 3; 4; 3
Da die Minimaldistanz folglich 3 ist, kann der Code einen Fehler korrigieren.
T ist linear, d.h. u, v T =u +v T und u T, F
2
=u T.
Somit ist T ein 3-dimensionaler UVR von F
6
2
.
120
10.3 Lineare Codes
Denition 10.2. Ein Code C F
n
2
heit linear, wenn C ein UVR von F
n
2
ist.
Beobachtung: Ein linearer Code mit Dimension k hat q
k
Elemente.
Beweis. Sei b
1
, . . . , b
k
Basis von C. Somit ist C = {
1
b
1
+. . . +
k
b
k
}
i
F
q
. Fr
jedes
i
haben wir q Mglichkeiten und somit insgesamt q
k
Elemente.
Denition 10.3. Das Gewicht w(v) eines Vektors v denieren wir als
w(v) = | {i | v
i
= 0} |.
Lemma. Sei C ein linearer Code. Dann ist d(C) = min {w(v) | w C \ {0}}
Beweis.
d(C) = min(d
H
(u, v) : u ,= v, u, v C)
= d
H
(u

, v

) = #(i : u

i
,= v

i
)
= #(i : v

i
u

i
,= 0)
= w(v

i
u

i
) wobei v

i
u

i
C
Umgekehrt: v ,= 0 der Vektor mit minimalem Gewicht =d
H
(v, 0) = w(v)
10.4 Generatormatrix
Denition 10.4. Sei C ein linearer Code mit dimC = K und Lnge von C = n (d.h.
C ist k-dimensionaler Untervektorraum von F
n
2
). Eine Generatormatrix fr C ist ein
G M
F
2
(n, k), wenn
C = im(G), wobei G : F
k
2
F
n
2
und rg G = k
Proposition 10.4.1. Sei C ein (n, k) Code (Lnge n, Dimension k).
G M
F
2
(n, k) ist eine Generatormatrix fr C
=rg G = k und die Spalten von G liegen in C =imG C
w F
2
G
c
w
C(c F
n
2
)
Fehler

treten auf
a F
n
2
Dekodierung
Ziel: w
10.5 Prfmatrix (Checkmatrix)
Denition 10.5. Sei C ein (n, k) Code. H M(m, n) ist eine Prfmatrix fr C, wenn
C = ker H und H : F
n
2
F
m
2
mit n = dimimH+dimker H =m _ rg H = nk
Beispiele: (1) Parittscode der Lnge 4 (n = 4 und k = n 1 = 3)
G =
_
_
_
_
1 0 0
0 1 0
0 0 1
1 1 1
_
_
_
_
mit G : (x, y, z)
T
(x, y, z, x +y +z)
T
ImG = {v | v
1
+v
2
+v
3
+v
4
0(2)}
H = (
_
1 1 1 1
_
und somit ker H = {v |

v
i
= 0}
Hv = 0 =v hat gerade Anzahl von 1en.
121
(2) Tripple-Check-Code
(x, y, z) (x, y, z, x +y, x +z, y +z) und somit G =
_
_
_
_
_
_
_
_
1 0 0
0 1 0
0 0 1
1 1 0
1 0 1
0 1 1
_
_
_
_
_
_
_
_
und
H =
_
_
1 1 0 1 0 0
1 0 1 0 1 0
0 1 1 0 0 1
_
_
Je 2 Spalten von H sind linear unabhngig. = d(C) = 3, d.h. der Code kann einen
Fehler korrigieren.
Satz. Ist G =

I
k
A

mit A M(n k, k) eine Generatormatrix fr C (C ein (n, k)


Code) dann ist H =
_
A I
nk
_
eine Prfmatrix fr C.
Bemerkung: Die Standartform

I
k
A

einer Generatormatrix hat den Vorzug, dass


das Wort w F
k
2
in den ersten k Komponenten des Codewortes c
w
steht. Dekodieren
ist einfach.
Beweis. Es gilt: C = imG. Zu zeigen ist: C = ker H
F
k
G
F
n
H
0
H G = A I
k
+I
mk
A = A+A
inF
2
= 0
Also ist ker H imG.
Sei v ker H, d.h. Hv = 0. Wir schreiben v = (u, w), wobei u die Lnge k und w
die Lnge n k hat.
Hv = H

u
w

= Au +I
nk
w = Au +w = 0
Also Au = w. Auerdem ist
Gu = (I
k
u, A
u
) = (u, w) = v
Also ist ker H imG. Es folgt: ker H = imG
Aus einer Prfmatrix fr C lsst sich die Minimaldistanz ablesen.
Satz 10.5.1. Sei C(u, k) ein Code mit Prefmatrix H. Dann gilt:
d(C) _ d =je d 1 Spalten von H sind linear unabhngig.
Beweis. (=) Sei H die Prfmatrix = C = ker H. d(C) _ d ist gleichbedeutend mit
w(v) _ d, \v ,= 0, v C Vorberlegung: v C =Hv =

v
i
H
i
, wobei H
i
Spalten
von H sind. Angenommen es gibt d 1 Spalten von H die linear abhngig sind, dann
seien H
1
, . . . , H
d1
diese Spalten.
=es gibt Koefzienten
1
, . . . ,
d1
nicht alle 0, sodass
d1

i=1

i
H
i
= 0
Sei = (
1
, . . . ,
d1
, 0, . . . , 0) F
n
. Es gilt: H = 0, also ist ker H = C =
122
w() _ d.
Dies ist ein Widerspruch und somit ist w() _ d 1
(=) Seien je d 1 Spalten von H linear unabhngig. Somit mssen in einer Linear-
kombination
n

i=1

i
H
i
= 0, in der nicht alle
i
= 0 sind, mindestens d der
i
,= 0
sein. =w() _ d.
Jeder Vektor c C ist so ein , weil C = ker H.
Folgerung: Sei H eine Matrix in der keine Spalte ein Vielfaches einer anderen ist.
Somit is H eine Prfmatrix eines Codes mit d(C) _ 3, d.h. C kann einen Fehler kor-
rigieren.
Beispiel: Tripple-Check-Code. Sei n die Lnge des Codes. Es gilt n = dimker H(=
dimC) + dimimH. Die Informationsrate ist somit
dimker H
n
.
Unser Ziel ist die Konstruktion von 1 Fehler korrigierenden Codes mit hoher Informa-
tionsrate. Die Anzahl der Zeilen von H ist die Schranke fr dimimH. Sei k = # Zeilen
von H.
Eine Hohe Informationsrate bekommen wir, wenn wir viele Spalten in H haben.
ber F
2
knnen wir alle k-Vektoren ,= 0 als Spalten von H nehmen und dabei
d(C) _ 3 erhalten.
Beispiele: k = 2, H
2
=

1 0 1
0 1 1

und C = {(000), (111)}


k = 3, H
3
=
_
_
0 1 1 1 1 0 0
1 0 1 1 0 1 0
1 1 0 1 0 0 1
_
_
wobei n = 7 und dimimH
3
= 3 und
dimker H
3
= 4
10.6 Hamming Codes
Betrachten wir im Folgenden den Hamming Code Ham(3).
Prfmatrix:
_
_
1 1 0 1 1 0 0
1 0 1 1 0 1 0
0 1 1 1 0 0 1
_
_
Die Lnge betrgt n = 2
3
1 = 7
Die Minimaldistanz ist 3 - Je 2 Spalten von H
3
sind linear unabhngig, aber es
existieren 3 Spalten, die linear abhngig sind. Zu Veranschaulichung, betrachte
man die Fanoebene (die kleinste Projektive Ebene).
Die Dimension ist n rg H
3
= dimker H
3
= 4
Die Anzahl an mglichen Codewrtern ist 2
4
= 16. (Wir wissen V ist ein Vek-
torraum der Dimension n ber K. Darausfolgt V

= K
n
. Wenn K = F
q
ein
endlicher Krper mit q Elementen, dann ist V

= F
n
q
=|V | = |F
n
q
| = q
n
.)
Als Konsequenz aus der Minimaldistanz ergibt sich: Die Kugeln B
1
(v) um Codewr-
ter sind disjunkt. (Zur Erinnerung: Eine Kugel mit dem Radius r um v ist: B
r
(v) =
{w | d
H
(v, w) _ r}
Sei v Ham(3) F
7
2
. Damit ist |B
1
(v)| = 1 + 7 = 8, wobei die 1 fr v selber und
123
die 7 fr alle Vektoren, die sich von v in genau einer Position unterscheiden ist.
Nun ist aber auch |

v Ham(3)B
1
(v)| =

v2Ham(3)
|B
1
(v)| =

v2Ham(3)
8 =
8 |Ham(3)| = 8 16)2
7
. Die erste Gleichheit gilt, da die Kugeln disjunkt sind.
Somit folgt: Jeder Vektor aus F
7
2
liegt in der 1-Kugel eines Codewortes von Ham(3),
d.h. Ham(3) ist 1-perfekt.
10.6.1 Perfekte Codes
Hamming Codes sind 1-perfekt (dies gilt fr alls k, Ham(k)).
Golay Code ist 3-perfekt. Er hat die Paramete n = 23, d(C) = 7 und dim12.
10.6.2 Decodierung von Ham(3)
Sei w das empfangene Wort.
v F
4
2

Codierung
x F
7
2

Strung
w F
7
2

Dekodierung
v
Wenn H
3
w = 0, dann gilt w Ham(3). Weil H
3
in Standartform H = (AI
3
) ist,
ist G =

I
4
A

die Generatormatrix und w = Gv. Somit besteht v aus den ersten 4


Koordinaten von w.
Wenn H
3
w ,= 0, folgt: !w
0
Ham(3) mit 3 B
1
(w
0
), d.h. w = w
0
+ e
i
fr ein
i 1, . . . , 7. H
3
(w) = H
3
(w
0
+ e) = H
3
(w
0
) + H
3
(e
i
) = H
3
(e
i
) das ist die i-te
Spalte von H
3
.
Wenn H
3
w ,= 0, dann gengt es den Index der Spalte von H
3
zu nden, die dem Vektor
H
3
w gleicht und die i-te Stelle von w zu ndern. Die ersten 4 Koordinaten sind dann
die Nachricht v.
Beispiel: Empfangen w = (1011001), H
3
w
T
=
_
_
0
1
1
_
_
. Das ist die 3-te Spalte von H
3
.
Somit ist w
0
= (1001001) Codewort und 1001 ist die Nachricht.
10.7 Reed-Salomon-Codes
Folgendes seien Informationssymbole: a
0
, a
1
, . . . , a
k1
Q, wobei Q ein Krper mit
dem typischerweise zugrunde liegenden Alphabet Q = F
2
k. Betrachten wir nun das
Polynom
a(x) = a
0
+a
1
x +. . . +a
k1
x
k1
Durch Auswerten des Polynoms fr zuvor festgelegte Werte
0
, . . . ,
n1
aus Qerhal-
ten wir das Codewort fr a:
Ca = (a(
0
), a(
1
), . . . , a(
n1
)) Q
n
Satz 10.7.1. Der Code ist linear, d.h. die Menge der Codewrter ist ein UVR von Q
n
.
Beweis. Z.z. ist: Wenn C
a
, C
0
a
Codewrter, q Q, dann sind C
a
+ C
0
a
und q C
a
Codewrter.
Ca = (a(
o
) . . . a(
n1
)) Ca
0
= (a
0
(
o
) . . . a
0
(
n1
))
124
C
a
+C
0
a
hat als i-te Komponente a(
i
) +a
0
(
i
).
=a
0
+a
1

i
+. . . +a
k1

k1
i
+a
0
0
+a
0
1

i
+. . . +a
0
k1

k1
i
=(a
0
+a
0
0
) + (a
1
+a
0
1
)
i
+. . . + (a
k1
+a
0
k1
)
k1
i
Dies ist die i-te Komponente von C
a+a
0 .
Betrachten wir nun q C
a
= q(a(
0
), . . . , a(
n1
)). q C
a
hat als i-te Komponente:
qa(
i
) = q(a
0
+a
1

i
+. . . +a
k1

k1
) = (qa
0
) + (qa
1
)
i
+. . . + (qa
k1
)
k1
.
Satz 10.7.2. RS-Code sind linear, d.h. Minimaldistanz = Minimalgewicht.
Beweis. Sei a = (a
0
. . . a
k1
,= 0 Q
k
. Daraus folgt, dass a(x) nicht das Nullpo-
lynom ist und auerdem gilt: Grad(ax)) _ k 1. Somit hat a(x) hchstens k 1
Nullstellen.
Es folgt: C
a
hat hchstens an k-1 von n Stellen eine 0, s.h. w(C
a
) _ n (k 1) und
somit ist die Minimaldistanz n + 1 k.
Satz 10.7.3. Die Dimension eines RS-Codes ist k (Nachricht (a
0
, . . . a
k1
) Q
k
Beweis. Ein Polynom vom Grad k hat hchtens k _ 1 Nullstellen. Mittels Induktion
nach k zeigen wir p vom Grad k hat die Darstellung
p(x) = b
0
(x s
1
)(x s
2
) . . . (x s
k
)
Induktionsanfang: k = 1: p(x) = a
0
+a
1
x, wobei a
1
,= 0.
Die Nullstelle ist: 0 = a
0
+a
1
x =x =
a
0
a
1
, womit x ein eindeutiges Krperelement
ist.
Induktionsschritt: Sei s eine Nullstelle von p.
Behauptung: (x s) ist ein Teiler von p(x).
Beweis: p(x) = q(x)(x s) + r(x) mit Grad(r(x)) _ Grad((x x)) = 1, d.h.
r(x) = r K.
Das Auswerten bei s ergibt:
0 = p(s) = q(s)(s s) +r =r = 0
Somit ist der Grad von q(x) um 1 kleiner als der von p(x). Die Induktionsannahme fr
q liefert:
q(x) = b
0
(x s
1
) . . . (x s
k1
)
p(x) hat folglich eine Darstellung wie behauptet.
ACHTUNG: Dies gilt nur in besonderen Fllen. Immer gilt:
Es existiert eine Krpererweiterung L von K, sodass a(x) in L genau k1 Nullstellen
(vielfach gezhlt) besitzt und also in Linearfaktoren zerfllt.
Sei (a
0
, . . . , a
k1
) Q
k
die Information und Q ein Krper. Dann gilt:
a(x) = a
0
+a
1
x +. . . +a
k1
x
k1
Q
[x]<k
Die vorgegebenen Werte
0
, . . .
n1
Qsollen verschieden sein, d.h. |Q| _ n. Folg-
lich ist das Codewort C
a
= (a(
0
), a(
1
), . . . , a(
n1
)). RS-Codes sind linear und
somit ist das Minimalgewicht d = n k + 1 und die Lnge n. Die Dimension ist k
125
und
_
C
n
| a Q
k
_
ist k-dimensionaler Untervektorraum von Q
n
.
Bemerkung: In Anwendungen whlt man
1
, . . .
n1
gerne als Potenzen eines Ele-
ments mit
i
,=
j
fr 0 _ i < j _ n 1 und
n
= 1 =
0
.
Dann gilt: Ist c = (c
0
, . . . , c
n1
= ein Codewort, folgt c = (c
1
, . . . , c
n1
, c
0
) ist eben-
falls ein Codewort und der RS-Code ist somit zyklisch.
c kommt von a(x), d.h. c
i
= a(
i
) = a
0
+a
1

i
+. . . +a
k1

(k1)i
. Gesucht ist nun
ein Polynom a
0
(x), sodass a
0
(
i
) = c
i+1
= a(
i+1
.
a
0
0
+a
0
1

i
+. . . +a
0
k1

(k1)i
= a
o
+a
1

i+1
+. . . +a
k1

(k1)(i+1)
Mit a
0
0
= a
0
, a
0
1
= a
1
und a
0
j
= a
j

j
sind geeignete Koefzienten gefunden, sodass
c
0
von a
0
(x) kommt. Es folgt:
a
0
(
n1
) = a
0
+a
1
((
n1
) +. . . +a
k1

k1

(k1)(n1)
= a
0
+a
1
+. . . +a
k1
= a(1) = c
0
10.7.1 Ein konkreter RS-Code
Der Code habe folgende Eigenschaften: n = 8 und k = 4, d.h. d = 5 und der Code
kann 2 Fehler korrigieren. Somit bentigen wir ein Q mit mindestens 8 Elementen.
Geeignet ist F
8
.
Es gibt eine natrliche Bijektion zwischen F
3
2
und F
8
. Somit knnen wir die Informa-
tionen mit 3k = 12 Bits Codieren. Die Codewrter sind dann Vektoren mit 3n = 24
Bits.
Ein Informationswert w =

010 001 110 111


w
0
w
1
w
2
w
3

soll codiert werden. Wir Rech-


nen in q = F
8
: Die Elemente sind somit {0, 1, , 1+,
2
, 1+
2
, 1++
2
, +
2
}
(dies entspricht den Polynomen in F
2
[]
2
.
Die Addition fhren wir wie mit Polynomen durch.
Die Multiplikation wird wie mit Polynomen durchgefhrt, jedoch gilt folgende Reduk-
tionsregel:
3
= 1 +
2
. Dies entspricht F
2
[]/
Vielfache von (
2
++1)
.
Bei Z ist Z/
Z
m
ein Krper, wenn m prim. Bei F
2
[] ist F
2
[]/
p()F
a
[]
ein Krper,
wenn p() irreduzibel, d.h. p hat keine Teiler T mit 0 < Grad(T) < Grad(p).
Zum Rechnen: Die Elemente von F
2
[]/
p()F
a
[]
sind Restklassen [a()]. Jede
Restklasse hat einen ausgezeichneten Reprsentanten a
0
() mit 0 _ Grad(a
0
()) <
Grad(p())
Den Reprsentanten fr [b()] erhlt man durch Division:
b() = s()p() +r(), mit 0 _ Grad(r()) < Grad(p())
126
11 Bildquellen
http://de.wikipedia.org/wiki/Bild:Injektivit%C3%A4t_Mengenwolke.png
http://de.wikipedia.org/wiki/Bild:Surjektivit%C3%A4t_Mengenwolke.png
http://de.wikipedia.org/wiki/Bild:Bijektivit%C3%A4t_Mengenwolke.png
Alle weiteren Bilder erstellt mit GeoGebra und dem GIMP.
127