Sie sind auf Seite 1von 64

Mitschrift zur Lineare Algebra I Vorlesung von

Prof. Dr. Felsner im WS07/08


Thomas El Khatib
30. November 2007

1
Inhaltsverzeichnis
1 Grundbegriffe 5
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Mengennotationen . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Zahlenmengen . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.5 Komposition von Abbildungen . . . . . . . . . . . . . . . . . 6
1.1.6 Identität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.7 Menge aller Abbildungen . . . . . . . . . . . . . . . . . . . 8
1.1.8 Produkte von Mengen . . . . . . . . . . . . . . . . . . . . . 8
1.2 Äquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Äquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.4 Partitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Gruppen 11
2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1 Innere Verknüpfung . . . . . . . . . . . . . . . . . . . . . . 11
2.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.3 Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.5 Symmetrische Gruppen . . . . . . . . . . . . . . . . . . . . . 14
2.1.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.7 Eigenschaften von Gruppen . . . . . . . . . . . . . . . . . . 15
2.1.8 Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.10 Untergruppenkriterium . . . . . . . . . . . . . . . . . . . . . 17
2.2 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Isomorphismus . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.3 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.4 Beispiele von Homomorphismen . . . . . . . . . . . . . . . . 18
2.2.5 Bild und Kern von Homomorphismen . . . . . . . . . . . . . 19
2.2.6 Faktorgruppe nach dem Kern und Homomorphiesatz . . . . . 19
2.2.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Ringe, Körper, Polynome 22


3.1 Definitionen: Ring und Körper . . . . . . . . . . . . . . . . . . . . . 22
3.1.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Nullteilerfreiheit . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.4 Gegenbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.5 Unterringe . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.6 Ringhomomorphismen . . . . . . . . . . . . . . . . . . . . . 24
3.1.7 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.8 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.9 Eigenschaften von Körpern . . . . . . . . . . . . . . . . . . . 24

2
3.1.10 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.11 Der Körper der komplexen Zahlen . . . . . . . . . . . . . . . 25
3.2 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.3 Polynomringe . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.4 Gradformel . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.5 Nullteilerfreiheit . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.6 Polynomdivision . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.8 Folgerungen, Nullstellen . . . . . . . . . . . . . . . . . . . . 32
3.2.9 Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . 33
3.2.10 Lemma von Bezout . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.11 Spezielle Faktorpolynomringe . . . . . . . . . . . . . . . . . 34
3.2.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

4 Vektorräume 37
4.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.2 Weitere Eigenschaften . . . . . . . . . . . . . . . . . . . . . 37
4.1.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.4 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . 38
4.1.5 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.6 Durchschnitte von Unterräumen sind Unterräume . . . . . . . 39
4.1.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.8 Vereinigung von Unterräumen ist kein Unterraum . . . . . . . 40
4.1.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.10 Lineares Erzeugnis . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.11 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . 41
4.1.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.13 Charakterisierung der linearen Unabhängigkeit . . . . . . . . 42
4.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.2 Charakterisierung des Vektorraums durch eine seiner Basen . 43
4.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.4 Alternative Definitionen . . . . . . . . . . . . . . . . . . . . 44
4.2.5 Existenz einer Basis für endlich erzeugbare Vektorräume . . . 45
4.2.6 Austauschlemma . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.7 Austauschsatz von Steinitz . . . . . . . . . . . . . . . . . . . 46
4.2.8 Alle Basen haben gleich viele Elemente . . . . . . . . . . . . 47
4.2.9 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.10 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.11 Dimension von Unterräumen . . . . . . . . . . . . . . . . . . 48
4.3 Unendlichdimensionale Vektorräume . . . . . . . . . . . . . . . . . . 48
4.3.1 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.3.2 Halbordnungen . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.3.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.4 Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.5 Lemma von Zorn . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.6 Basisexistenzsatz für beliebige Vektorräume . . . . . . . . . . 49

3
4.4 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4.2 Zeilenstufenform . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4.3 Kriterium für lineare Unabhängigkeit . . . . . . . . . . . . . 51
4.4.4 Zeilenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4.5 Elementare Zeilenumformungen . . . . . . . . . . . . . . . . 51
4.4.6 Elementare Zeilenumformungen sind zeilenraumerhaltend . . 52
4.4.7 Weitere Zeilenumformungen . . . . . . . . . . . . . . . . . . 52
4.4.8 Jede Matrix kann in Zeilenstufenform umgeformt werden . . 53
4.4.9 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.5 Summen und direkte Summen . . . . . . . . . . . . . . . . . . . . . 54
4.5.1 Summe von Untervektorräumen . . . . . . . . . . . . . . . . 54
4.5.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.5.3 Summe und Erzeugnis . . . . . . . . . . . . . . . . . . . . . 55
4.5.4 Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . 55
4.5.5 Direkte Summe . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.5.6 Existenz von komplementären Unterräumen . . . . . . . . . . 56
4.5.7 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

5 Lineare Abbildungen 57
5.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 57
5.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.3 Lineare Abbildungen sind Vektorraumhomomorphismen . . . 58
5.1.4 Eigenschaften von linearen Abbildungen . . . . . . . . . . . 58
5.1.5 Komposition linearer Abbildungen sind linear . . . . . . . . . 59
5.1.6 Vektorräume der Homomorphismen . . . . . . . . . . . . . . 59
5.1.7 Menge der Endomorphismen . . . . . . . . . . . . . . . . . . 60
5.2 Bild, Faser, Kern . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.2.2 Rang einer linearen Abbildung . . . . . . . . . . . . . . . . . 62
5.2.3 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . 62
5.2.4 Faserung eines Vektorraums . . . . . . . . . . . . . . . . . . 62
5.2.5 Affine Teilräume . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2.7 Charakterisierung von affinen Unterräumen . . . . . . . . . . 63

6 Bildquellen 64

4
1 Grundbegriffe
1.1 Mengen und Abbildungen
1.1.1 Mengennotationen
∈ { } ⊂ ⊆ ∪ ∩ \ ×

{1, 3, 5, 7, 9} = {a ∈ N | a ungerade, a < 10}


| {z } | {z }
explizite Nennung implizit durch Eigenschaften

1.1.2 Zahlenmengen
N, Z, Q, R, C

1.1.3 Rechenregeln
Seien A, B, C, Ni ⊆X
|{z}
verschiedene i von 1 bis n

• A ∪ B = B ∪ A, A ∩ B = B ∩ A - kommutativ

• (A ∩ B) ∩ C) = (A ∩ (B ∩ C)), (A ∩ B) ∩ C) = (A ∩ (B ∩ C)) - assoziativ



!
\ \
A∪ Ni = (A ∪ Ni )
i∈I i∈I
| {z }
N1 ∩N2 ∩...∩Nn
!
[ [
A∩ Ni = (A ∩ Ni )
i∈I i∈I

distributiv

1.1.4 Abbildungen
Definition 1.1.
f : X → Y, x 7→ f (x)
bedeutet f ordnet jedem x ∈ X ein y = f (x) ∈ Y zu.

• A⊆X Bild von A: f (A) = {y ∈ Y | x ∈ a ∧ f (x) = y}

• B⊆Y Urbild von B: f −1 (B) = {x ∈ Y | f (x) ∈ B}


• injektiv: Keine zwei Elemente von X werden auf dasselbe Element abbgebildet
(engl. one-to-one).
• surjektiv: Jedes Element aus y ist ein f (x) (liegt im Bild von X) (engl. onto).

• bijektiv: injektiv + surjektiv

Lemma 1.1. Seien X, Y endlich, f : X → Y eine Abbildung. Es gilt

5
(a) f ist injektiv ⇐⇒ |X| = |f (X)|.
(b) f ist surjektiv ⇐⇒ f (X) = Y ⇐⇒ |f (X)| = |Y |.
Beweis. a) Illustration

Es muss gelten |X| = |Pfeile|. Injektivität heißt nun, dass auf kein Element 2
oder mehr Pfeilspitzen zeigen, also gilt |Pfeilspitzen| = |f (x)|. Zusammen folgt
|X| = |Pfeile| = |Pfeilspitzen| = |f (X)|

b) X

Satz 1.1.1. Sei X eine endliche Menge und f : X → X eine Abbildung, dann ist
äquivalent
(a) f ist injektiv
(b) f ist surjektiv
(c) f ist bijektiv
Beweis. (a) ⇔ (b)
Aus dem Lemma folgt:
f ist injektiv ⇐⇒ |X| = |f (X)| ⇐⇒ |f (X)| = |X| (= |Y |) ⇐⇒ f ist surjektiv
Aus (a) und (b) folgt direkt (c).
Achtung. Wenn X unendlich ist, dann wird der Satz falsch.
Es gibt surjektive Abbildungen f : R → R2 , z.B.
(
yx = 0, x1 x3 x5 . . .
x = 0, x1 x2 x3 . . . 7→
zx = 0, x2 x4 x6 . . .
(Darstellung von reellen Zahlen als unendliche p-adische Brüche ist nicht eindeutig!)

1.1.5 Komposition von Abbildungen


Definition 1.2. Seien
f : X → Y, g: Y →Z
dann wird definiert
g◦f : X →Z
x 7→ (g ◦ f )(x) = g(f (x))

f g
X →Y → Z
g◦f
X → Z

6
1.1.6 Identität
Definition 1.3. Eine spezielle Abbildung ist die wie folgt definierte Identität idX auf
einer Menge X

idX : X → X
x 7→ x

Für die Identität gilt


f ◦ idX = idY ◦f = f
Lemma 1.2. Sei f : X → Y eine Abbildung.

(a) f ist injektiv ⇐⇒ ∃ g : Y → X mit g ◦ f = idX


(b) f ist surjektiv ⇐⇒ ∃ g : Y → X mit f ◦ g = idY
(c) f ist bijektiv ⇐⇒ ∃ g : Y → X mit g ◦ f = idX ∧f ◦ g = idY
Beweis. (a) Illustration

Von allen Elementen aus Y , auf die ein Pfeil zeigt, geht der Pfeil für die Ab-
bildung g auf demselben Weg zurück. Man dreht die Pfeile also praktisch um.
Alle Elemente von Y , auf die kein Pfeil zeigt, werden durch g auf ein beliebiges
Element von X abgebildet.

In der Hinrichtung ist zu zeigen: [∃ g Y → X : g ◦ f = idX ] ⇒ f ist injek-


tiv.
Wir zeigen: f ist nicht injektiv ⇒6 ∃ g Y → X : g ◦ f = idX .
Wenn f nicht injektiv ist, gibt es zwei Elemente aus X, die auf dasselbe Element
aus Y abgebildet wird, also

∃ x1 , x2 ∈ X : x1 6= x2 ∧ f (x1 ) = f (x2 ) = y ∈ Y

Wenn g(y) = x1 , dann ist (g ◦ f )(x2 ) = x1 6= x2 , also ist g 6= idX .


Wenn g(y) = x2 , dann ist (g ◦ f )(x1 ) = x2 6= x2 , also ist g 6= idX .
Wenn g(y) = x3 , x3 6= x1 , x3 6= x2 , dann ist (g ◦ f )(x2 ) = x3 6= x2 , also ist
g 6= idX .
Für jedes g gibt es ein Element x ∈ X, das durch g ◦ f nicht auf sich selbst
abgebildet wird, also gibt es kein g mit g ◦ f = idX .
Die Rückrichtung ist klar: Da g eine Abbildung ist, wird f (x1 ) = f (x2 ) dasselbe
Element x1 = x2 zugeordnet.
(b) Illustration

7
Man sucht für jedes Element in Y einen Pfeil aus, der auf es zeigt, und kehrt es
um. Also wähle xy ∈ f −1 ({y}) und definiere: g(y) = xy , dann gilt (f ◦ g)(y) =
f (xy ) = y, also insgesamt f ◦ g = idY .
Bemerkung. Man benötigt hierbei das Auswahlaxiom.
Wenn f nicht surjektiv ist, dann ∃ y0 ∈ Y ∀ x ∈ X : f (x) 6= y0 . Wenn
g(y0 ) = x0 ∈ X, dann folgt (f ◦ g)(y0 ) = f (x0 ) 6= y0 , also kann f ◦ g nicht
idY sein. Es gibt also kein g mit dieser Eigenschaft.
Die Rückrichtung ist auch hier klar: Da g eine Abbildung ist, wird jedem y ∈ Y
ein x ∈ X zugeordnet, sodass f (x) = y gilt.
(c) Illustration

Man dreht die Pfeile einfach um.


Der formale Beweis stützt sich auf (a) und (b).

1.1.7 Menge aller Abbildungen


Wie viele Abbildungen von X nach Y gibt es?
Wenn X, Y endliche Mengen sind, dann kommt es nur auf die Anzahl der Elemente
von X und Y an.

Sei [n] = {1, 2, 3, . . . , n} für ein n ∈ N.


Wie viele Abbildungen von [n] nach [m] gibt es?
Antwort: mn .

Definition 1.4. Daraus „ergibt“ sich die symbolische Schreibweise Y X := {f : X → Y }


für die Menge aller Abbildungen von X nach Y .

1.1.8 Produkte von Mengen


Definition 1.5. Für zwei Mengen X, Y wird das kartesische Produkt von X mit Y
definiert als
X × Y := {(x, y) | x ∈ X, y ∈ Y }

8
Intutiv wird definiert

X n := X × X × . . . × X (Wir lassen die Klammern weg.)


| {z }
n-mal
= {(x1 , x2 , . . . , xn ) | xi ∈ X ∀ i = 1, . . . , n}

= (xi )i∈[n] : xi ∈ X
= {f : [n] → X}

1.2 Äquivalenzrelationen
1.2.1 Relationen
Definition 1.6. Eine Relation R ist eine Teilmenge von X × Y , also

R⊆X ×Y

Man schreibt xRy um zu kennzeichnen: (x, y) ∈ R.

1.2.2 Äquivalenzrelationen
Definition 1.7. Äquivalenzrelationen sind Relationen ∼⊆ X × X mit den Eigen-
schaften
A1 Reflexivität: x ∼ x ∀ x ∈ X,
A2 Symmetrie: x ∼ y ⇔ y ∼ x ∀ x, y ∈ X und
A3 Transitivität: x ∼ y ∧ y ∼ z ⇒ x ∼ z ∀ x, y, z ∈ X.

1.2.3 Beispiele
• „=“ - Gleichheitsrelation auf einer Menge

• X als eine Gruppe von Personen, ∼ - Gleichaltrigkeit

1.2.4 Partitionen
Definition 1.8. Eine Partition einer Menge X ist eine Zerlegung von X in paarweise
disjunkte Teilmengen (Xi )i∈I , d.h.
S
• i∈I Xi = X
• Xi ∩ Xj = ∅ i, j ∈ I, i 6= j
• Xi 6= ∅ ∀i ∈ I
Satz 1.2.1. Sei X eine Menge. Partition von X und Äquivalenzrelationen entsprechen
einander.
Beweis. Sei (Xi )i∈I eine Partition. Wir definieren:

x ∼ y ⇐⇒ ∃ i ∈ I : x ∈ Xi ∧ y ∈ Xi

Zu zeigen: ∼ ist eine Äquivalenzrelation:

9
A1 Sei x ∈ X, dann gilt x ∈ Xi ⇔ x ∈ Xi . X
A2 Seien x, y ∈ X, dann gilt (x ∈ Xi ∧ y ∈ Xi ) ⇔ (x ∈ Xi ∧ y ∈ Xi ). X

A3 Seien x, y, z ∈ X und gelte (x ∈ Xi ∧ y ∈ Xi ) ∧ (y ∈ Xj ∧ z ∈ Xj ). Daraus


folgt wegen der Disjunktheit der Klassen Xi = Xj , also x ∈ Xj ∧ z ∈ Xj . X
Definition 1.9. Sei andererseits ∼ eine Äquivalenzrelation auf X, dann wird definiert

[x] = {y ∈ X | x ∼ y}

ist die Äquivalenzklasse von x. x wird Repräsentant der Klasse genannt.


Zu zeigen: {[x] | x ∈ X} ist eine Partition von X.
[
[x] = X X
x∈X

Seien x, z ∈ X mit x 6= z. Es gilt entweder: x ∼ z und damit x ∼ y ∀ y ∈ [z] und


z ∼ y ∀ y ∈ [x], also [x] = [z]; oder es gilt x 6∼ z, also [x] ∩ [z] = ∅: Angenommen
der Schnitt wäre nicht leer, dann gäbe es ein y, für das gilt x ∼ y und y ∼ z. Wegen
der Transitivität gilt dann auch x ∼ z, Widerspruch.
Die Menge der Äquivalenzklassen bildet eine Partition auf X.

10
2 Gruppen
2.1 Definitionen
2.1.1 Innere Verknüpfung
Definition 2.1. Eine Gruppe ist ein Paar (G, ◦), wobei G eine Menge und ◦ eine (innere
zweistellige) Operation auf G ist, also eine Abbildung G × G → G.
Statt ◦((g, h)) = r für drei Elemente g, h, r ∈ G schreiben wir g ◦ h = r.

2.1.2 Beispiele

◦ : XX × XX → XX
(f, g) 7→ f ◦ g

Verknüpfung von Abbildungen von X nach X ((X X , ◦) ist keine Gruppe!)


+: Z×Z→Z
(a, b) 7→ a + b

2.1.3 Gruppe
Definition 2.2. (G, ◦) ist eine Gruppe, wenn gilt
G1 Assoziativgesetz: (a ◦ b) ◦ c = a ◦ (b ◦ c) ∀ a, b, c ∈ G
G2 Existenz eines (links-)neutralen Elements: ∃ e ∈ G : e ◦ a = a ∀a ∈ A
G3 Existenz von (links-)inversen Elementen: ∃ a−1 ∈ G : a−1 ◦ a = e ∀ a ∈ A.
(G, ◦) ist kommutative Gruppe (abelsche Gruppe), wenn gilt:

a ◦ b = b ◦ a ∀ a, b ∈ G

2.1.4 Beispiele
• (Z, +) ist eine Gruppe:
– neutrales Element: 0
– Inverses von a ∈ Z: −a
• (N, +) ist keine Gruppe, weil 1 kein Inverses hat.
• (Z, −) ist keine Gruppe, weil „−“ nicht assoziativ ist.
• (Q, +), (R, +) ⊇ (Z, +).
• (Q+ , ·) ist ein Gruppe:
– neutrales Element: 1
1
– Inverses von a ∈ Q+ : a

11
· -1 1
-1 1 -1
1 -1 1

• ({−1, 1} , ·) ist eine Gruppe. Gruppentafel

– Es gilt {−1, 1} ⊂ Q∗ , wodurch sich die Assoziativität von (Q∗ , ·) über-


trägt.
– Wie man aus der Tafel ablesen kann, gilt: 1 · (−1) = (−1), 1 · 1 = 1, also
ist 1 neutrales Element.
– Wie man aus der Tafel ablesen kann, gilt:

(−1) · (−1) = 1 ⇒ (−1)−1 = (−1)


1 · 1 = 1 ⇒ 1−1 = 1

• D4 - Diedergruppe der Ordnung 4, Symmetriegruppe des Quadrats

Die Elemente dieser Gruppe sind die Symmetrien, d.h. Selbstabbildungen des
Quadrats:
Drehungen: da - Drehung der Ecke 0 auf die Ecke a:
– d0 - Drehung um 90◦ (in mathematisch positive Richtung)
– d1 - Drehung um 180◦
– d2 - Drehung um 270◦
– d3 - Drehung um 270◦
(Achsen-)Spiegelungen: sa - Spiegelung der Ecke 0 auf die Ecke a: s0 , s1 , s2 , s3
Jede Symmetrie kann man als Permutation der Ecken beschreiben, z.B.
 
0 1 2 3
d1 =
1 2 3 0

Die Operation ist die Hintereinanderausführung der Abbildungen.


• D6 - Diedergruppe der Ordnung 6, Symmetriegruppe des regelmäßigen Sechs-
ecks

12
Behauptung: D6 = ({da , sa | a ∈ {0, . . . , 5}} , ◦) ist eine Gruppe.

Beweis. Seien die Bezeichnungen wie oben gegeben. Im Folgenden wird in den
Indizes immer modulo 6 gerechnet.
– Assoziativität: Verknüpfungen von Abbildungen sind immer assoziativ.
– Einheit: d0 ist die Identität (alle Ecken werden auf sich selbst „gedreht“).
– Inverse:
∗ d−1
a = d−a , denn die Umkehrung einer Drehung ist die Drehung um
denselben Winkel in die Gegenrichtung.
∗ s−1
a = sa , denn die Umkehrung einer Spiegelung ist die erneute Spie-
gelung an derselben Achse.
– Abgeschlossenheit: Die Auswertung von 144 Produkten ist zu aufwändig,
weswegen man systematisch vorgeht:
1. da ◦ db = da+b - Klar, Hintereinanderausführung von Drehung ist eine
Drehung um die Summe der einzelnen Winkel.
2. da ◦s0 = sa - Eine Spiegelung sa kehrt generell die Durchlaufrichtung
der Ecken um und lässt die Zählung bei a beginnen. s0 kehrt lediglich
die Durchlaufrichtung um, die anschließende Drehung da dreht eigent-
lich −a auf 0, wegen der umkehrten Reihenfolge dreht sie aber a auf
0, lässt die Zählung bei immer noch umgekehrter Reihenfolge also bei
a beginnen.
3. s0 ◦ da = s−a - da dreht 0 auf a, s0 kehrt die Durchlaufreihenfolge
um, also liegt 0 nun auf der Ecke, die am Anfang −a hieß.
4. s0 ◦ s0 = d0 - Klar.
Unter Verwendung von 1.-4. kann man nachrechnen:
da ◦ sb = da ◦ (db ◦ s0 ) = (da ◦ db ) ◦ s0 = da+b ◦ s0 = sa+b
sa ◦ db = (da ◦ s0 ) ◦ db = da ◦ (s0 ◦ db ) = da ◦ s−b = sa−b
?
sa ◦ sb = sa ◦ (db ◦ s0 ) = (sa ◦ db ) ◦ s0 = sa−b ◦ s0 = da−b

13
2.1.5 Symmetrische Gruppen
Sei X eine Menge. Sym(X) ist die Menge aller bijektiven Abbildungen von X nach
X mit der Verknüpfung als Operation. Sym(X) ist eine Gruppe.
Beweis. erfolgt durch Nachweis der Gruppenaxiome:
G1 Verknüpfung von Abbildungen ist immer assoziativ.

Beweis. Seien π, σ, τ Abbildungen von X nach Y und i ∈ X. Dann gilt

((π ◦ σ) ◦ τ )(i) = (π ◦ σ)(τ (i)) = π(σ(τ (i))) = π((σ ◦ τ )(i)) = (π ◦ (σ ◦ τ ))(i)

G2 idX ist das neutrale Element, denn es gilt für ein π ∈ Sym(X)

idX ◦π = π

G3 Zu jeder bijektiven Abbildung f gibt es Laut Lemma 1.2 eine Abbildung g :


X → X (also g ∈ Sym(X)) mit g ◦ f = idX .

Ab S3 sind symmetrische Gruppen nicht mehr kommutativ, z.B. ist


     
1 2 3 1 2 3 1 2 3
◦ =
1 3 2 2 1 3 3 1 2

aber      
1 2 3 1 2 3 1 2 3
◦ =
2 1 3 1 3 2 2 3 1
Satz. Sn hat genau n! Elemente.
Beweis. Es gibt n! Permutationen von n Elementen.

2.1.6 Beispiel
Sei X = [5].
Eine bijektive Abbildung [5] → [5] können wir in 2-Zeilennotation beschreiben.
Seien    
1 2 3 4 5 1 2 3 4 5
π= , σ=
4 2 1 5 3 4 5 1 2 3
Dann ist  
1 2 3 4 5
π◦σ =
5 3 4 2 1
Das neutrales Element ist
 
1 2 3 4 5
id[5] =
1 2 3 4 5

14
Das Inverse von  
1 2 3 4 5
π=
z1 z2 z3 z4 z5
ist  
−1 z1 z2 z3 z4 z5
π =
1 2 3 4 5

2.1.7 Eigenschaften von Gruppen


Satz 2.1.1. Sei (G, ◦) eine Gruppe.
i) Das neutrale Element ist eindeutig.

ii) Das (links-)neutrale Element ist auch rechtsneutral, d.h. für alle g ∈ G gilt e◦g =
g ◦ e = g.
iii) Die inversen Elemente sind eindeutig.
iv) Das (links-)inverse Element eines Elementes g ∈ G ist auch rechtsinvers, d.h. es
gilt g −1 ◦ g = g ◦ g −1 = e.

v) Für a, b ∈ G gilt (a ◦ b)−1 = b−1 ◦ a−1 .


vi) Für alle a ∈ G: (a−1 )−1 = a.
vii) Für alle a, b, c ∈ G: a ◦ b = a ◦ c ⇔ b = c.

Beweis. Sei (G, ◦) eine Gruppe und a, b, c ∈ G und e neutrales Element von G.
ii) Sei b = a−1 und c = b−1 , d.h. nach G3 b ◦ a = e und c ◦ b = e. D.h.
G1 G2
c ◦ e = c ◦ (b ◦ a) = (c ◦ b) ◦ a = e ◦ a = a
G1 G2
⇒ a ◦ e = (c ◦ e) ◦ e = c ◦ (e ◦ e) = c ◦ e = a

i) Angenommen es gibt ein weiteres neutrales Element ẽ, d.h. für alle a ∈ G gilt
ẽ ◦ a = a. Dann gilt auch
G2 ii)
ẽ = e ◦ ẽ = ẽ ◦ e = e

iv) Sei b = a−1 , d.h. nach G3 b ◦ a = e. Dann gilt

b◦a=e ⇔
b ◦ (b ◦ a) = b ◦ e = e ◦ b = (b ◦ a) ◦ b = b ◦ (a ◦ b) ⇔
−1 −1
b ◦ (b ◦ (b ◦ a)) = b ◦ (b ◦ (a ◦ b)) ⇔
−1 −1
(b ◦ b) ◦ (b ◦ a) = (b ◦ b) ◦ (a ◦ b) ⇔
e ◦ (b ◦ a) = e ◦ (a ◦ b) ⇔
b◦a=a◦b

D.h. aber a ◦ a−1 = a−1 ◦ a = e.

15
iii) Angenommen b sei auch inverses Element von a, also b ◦ a = e. Dann gilt auch
G1
(b ◦ a) ◦ a−1 = e ◦ a−1 ⇔
G2
b ◦ (a ◦ a−1 ) = e ◦ a−1 ⇔
iv)
b ◦ (a ◦ a−1 ) = a−1 ⇔
ii)
b ◦ e = a−1 ⇔
b = a−1

v) Es gilt
G1 iv) ii) iv)
(a ◦ b) ◦ (b−1 ◦ a−1 ) = (a ◦ (b ◦ b−1 )) ◦ a−1 = (a ◦ e) ◦ a−1 = a ◦ a−1 = e

Weil es nach iii) nur genau ein inverses Element zu a ◦ b gibt, gilt (a ◦ b)−1 =
b−1 ◦ b.
vi) Nach iv) gilt a ◦ a−1 = e, also ist nach G3 a invers zu a−1 , also ist nach iii)
(a−1 )−1 = a.

vii) Es gilt

a◦b=a◦c⇔
−1 G1
a ◦ (a ◦ b) = a−1 ◦ (a ◦ c) ⇔
G3
(a−1 ◦ a) ◦ b = (a−1 ◦ a) ◦ c ⇔
G2
e◦b=e◦c⇔
b=c

Satz. Jede Gruppe mit maximal vier Elementen ist abelsch.


Beweis. Sei (G, ◦) eine Gruppe.
Beweis durch Kontraposition: Wenn G nicht abelsch ist, dann hat G fünf oder mehr
Elemente.
Sei also G nicht abelsch, d.h. ∃ a, b ∈ G mit a ◦ b 6= b ◦ a. Es genügt zu zeigen:
e, a, b, a ◦ b, b ◦ a sind paarweise verschieden.
i) a ◦ b 6= b ◦ a nach Voraussetzung.
ii) a 6= e, b 6= e:
G2 G2
Angenommen a = e, dann würde gelten: a ◦ b = e ◦ b = b = b ◦ e = b ◦ a,
Widerspruch zu i). Analoges bei b = e.
iii) a ◦ b 6= a:
Angenommen a ◦ b = a, dann gilt auch a−1 ◦ a ◦ b = a−1 ◦ a, nach G3: e ◦ b = e,
also nach G2 b = e, Widerspruch zu ii).

iv) Analoges für a ◦ b 6= b.

16
v) a 6= b: Angenommen a = b, dann wäre auch a ◦ b = a ◦ a = b ◦ a, Widerspruch
zu i).

vi) a ◦ b 6= e:
Angenommen a◦b = e, dann wäre nach 2.1.7. iv) auch b◦a = e, also a◦b = b◦a,
Widerspruch zu i).
vii) Analog zu iii)-vi) folgen die Ungleichungen für b ◦ a.
Da alle fünf Elemente paarweise verschieden sind, hat G mindestens diese fünf Ele-
mente.

2.1.8 Untergruppen
Definition 2.3. Ist (G, ◦) eine Gruppe und H ⊆ G, dann ist (H, ◦) eine Untergruppe
von G, wenn (H, ◦) eine Gruppe ist.

2.1.9 Beispiel
• (Z, +) ist eine Untergruppe von (Z, +).
• Untergruppen des D6 :
– ({da | a ∈ {0, . . . , 5}} , ◦) ist eine Untergruppe, genannt die zyklische Un-
tergruppe der Ordnung 6.
– ({sa , d0 } , ◦)ist eine Untergruppe für a ∈ {0, . . . , 5}.
• D6 ist Untergruppe von S6 = Sym({0, . . . , 5}).

2.1.10 Untergruppenkriterium
Proposition 2.1.1. Wenn (G, ◦) eine Gruppe ist und H ⊆ G, dann ist (H, ◦) eine
Untergruppe, wenn gilt

UG1 e ∈ H (äquivalent zu H 6= ∅)
UG2 Wenn h ∈ H, dann ist auch h−1 ∈ H.
UG3 Mit h, i ∈ H ist auch h ◦ i ∈ H.

Beweis. Sei (G, ◦) eine Gruppe und H ⊆ G. Wegen UG3 ist H unter ◦ abgeschlossen.
Weiterhin gilt
G1 Assoziativität wird vererbt: Wenn die Elemente aus H bezüglich ◦ nicht assozia-
tiv wären, wären sie auch in G bezüglich ◦ nicht assoziativ.
G2 Neutrales Element ist dasselbe wie in G, das nach UG1 auch in H liegt.

G3 Die inversen Elemente sind dieselben wie in G und nach UG2 auch in H.

17
2.2 Homomorphismen
2.2.1 Definition
Seien (G, ◦) und (H, ∗) Gruppen.
Definition 2.4. Eine Abbildung ϕ : G → H ist ein Gruppenhomomorphismus, wenn
gilt
ϕ(a ◦ b) = ϕ(a) ∗ ϕ(b) ∀ a, b ∈ G

2.2.2 Isomorphismus
Definition 2.5. Ist ϕ bijektiv, dann ϕ ein Isomorphismus.

2.2.3 Eigenschaften
Satz 2.2.1. Wenn ϕ : (G, ◦) → (H, ∗) ein Homomorphismus ist, dann gilt
i) ϕ(eG ) = eH
ii) ϕ(a−1 ) = ϕ(a)−1
Beweis. ϕ : (G, ◦) → (H, ∗) ein Homomorphismus, dann gilt
i) ϕ(a) ∗ eH = ϕ(a) = ϕ(a ◦ eG ) = ϕ(a) ∗ ϕ(eG ), gekürzt: eH = ϕ(eG ).
i)
ii) ϕ(a) ∗ ϕ(a)−1 = eH = ϕ(eG ) = ϕ(a ◦ a−1 ) = ϕ(a) ∗ ϕ(a−1 ), gekürzt:
ϕ(a)−1 = ϕ(a−1 ).

2.2.4 Beispiele von Homomorphismen


1. (H, ◦) eine Untergruppe von (G, ◦), dann ist die Einbettung
ϕ: H→G
ϕ(h) = h ∀ h ∈ H
ein Homomorphismus.
2.
ϕ : (Z, +) → (R+ , ·)
a 7→ exp(a)
ist ein Homomorphismus, denn für beliebige a, b ∈ Z gilt nach Funktionalglei-
chung der Exponentialfunktion
ϕ(a + b) = exp(a + b) = exp(a) · exp(b)

3.
ϕ : (Z, +) → (Z, +)
a 7→ m · a
ist ein Homomorphismus, denn für beliebige a, b ∈ Z gilt
D
ϕ(a + b) = m · (a + b) = m · a + m · b

18
2.2.5 Bild und Kern von Homomorphismen
Definition 2.6. Sei ϕ : G → H ein Gruppenhomomorphismus. Dann wird definiert
• im(ϕ) := {h ∈ H | ∃ g ∈ G : ϕ(g) = h} - Bild von ϕ
• ker(ϕ) := {g ∈ G | ϕ(g) = eH } - Kern von ϕ
Satz 2.2.2. Sei ϕ : G → H ein Gruppenhomomorphismus, dann gilt
a) im(ϕ) ist eine Untergruppe von H.
b) ker(ϕ) ist eine Untergruppe von G.
Beweis. Seien also (G, ◦) und (H, ∗) Gruppen und ϕ : G → H ein Gruppenhomo-
morphismus.
a) UG1 eH ∈ im(ϕ), weil gilt ϕ(eG ) = eH .
UG2 Sei h ∈ im(ϕ), d.h. ∃ g ∈ G : ϕ(g) = h. Dann gilt ϕ(g −1 ) = ϕ(g)−1 =
h−1 , also h−1 ∈ im(ϕ).
UG3 Seien h1 , h2 ∈ im(ϕ), d.h. ∃ g1 , g2 ∈ G : ϕ(g1 ) = h1 , ϕ(g2 ) = h2 . Dann
gilt:
ϕ(g1 ◦ g2 ) = ϕ(g1 ) ∗ ϕ(g2 ) = h1 ∗ h2
also ist h1 ∗ h2 ∈ im(ϕ).
b) UG1 eG ∈ ker(ϕ), weil gilt ϕ(eG ) = eH .
UG2 Sei g ∈ ker(ϕ), d.h. ϕ(g) = eH . Dann gilt ϕ(g −1 ) = ϕ(g)−1 = e−1
H =
eH , also g −1 ∈ ker(ϕ).
UG3 Seien g1 , g2 ∈ im(ϕ), d.h. ϕ(g1 ) = ϕ(g2 ) = eH . Dann gilt:
ϕ(g1 ◦ g2 ) = ϕ(g1 ) ∗ ϕ(g2 ) = eH ∗ eH = eH
also ist g1 ∗ g2 ∈ ker(ϕ).

2.2.6 Faktorgruppe nach dem Kern und Homomorphiesatz


Sei ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus.
Auf G definieren wir eine Relation a ∼ϕ b ⇔ ϕ(a) = ϕ(b). ∼ϕ ist eine Äquivalenzre-
lation (weil sie über die Gleichheit definiert ist, die bekanntermaßen Äquivalenzrelation
ist).
Diese Äquivalenzrelation induziert eine Partition von G in Klassen. Die Klasse von a
bezeichen wir mit [a] = {b ∈ G | ϕ(a) = ϕ(b)}.

Illustration

Auf den Klassen wird die Operation  definiert: [a]  [b] = [a ◦ b].
Die Operation  ist wohldefiniert (repräsentantenunabhängig).

19
Beweis. Seien [a] = [a0 ] und [b] = [b0 ]. Es gilt

[a]  [b] := [a ◦ b]
= {g ∈ G | ϕ(g) = ϕ(a ◦ b)}
= {g ∈ G | ϕ(g) = ϕ(a) ∗ ϕ(b)}
= {g ∈ G | ϕ(g) = ϕ(a0 ) ∗ ϕ(b0 )}
= {g ∈ G | ϕ(g) = ϕ(a0 ◦ b0 )}
= [a0 ◦ b0 ] = [a0 ]  [b0 ]

Satz 2.2.3. (Homomorphiesatz)


Wenn ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus ist, dann gilt G/ker ϕ :=
({[a] | a ∈ G} , ) ist eine Gruppe und

ϕ̃ : G/ker ϕ → im ϕ,
ϕ̃([a]) = ϕ(a)

ist ein Isomorphismus, sodass das Diagramm kommutiert


(Diagramm hier einfügen ˆˆ)
also G/ker ϕ und im ϕ isomorph („im Wesentlichen gleich“) sind.
Beweis. Sei also ϕ : (G, ◦) → (H, ∗) ein Gruppenhomomorphismus und G/ker ϕ wie
oben definiert.
i) Die Gruppeneigenschaften von (G/ker ϕ, ) folgen im Grunde direkt aus deren
Gültigkeit in (G, ◦):
– G/ker ϕ ist über  abgeschlossen, denn seien [a], [b] ∈ G/ker ϕ beliebig,
dann gilt
[a]  [b] = [a ◦ b] ∈ G/ker ϕ
weil a ◦ b ∈ G.
G1 Für [a], [b], [c] ∈ G/ker ϕ gilt

([a]  [b])  [c] = [a ◦ b]  [c]


= [(a ◦ b) ◦ c]
= [a ◦ (b ◦ c)]
= [a]  [b ◦ c]
= [a]  ([b]  [c])

G2 [eG ] ist neutrales Element der Struktur, denn es gilt für alle [a] ∈ G/ker ϕ

[eG ]  [a] = [eG ◦ a] = [a]

G3 Das Inverse von [a] ∈ G/ker ϕ ist [a−1 ], denn es gilt

[a−1 ]  [a] = [a−1 ◦ a] = [eG ]

ii) ϕ̃ ist ein Homomorphismus, denn es gilt für beliebige [a], [b] ∈ G/ker ϕ

ϕ̃([a]  [b]) = ϕ̃([a ◦ b]) = ϕ(a ◦ b) = ϕ(a) ∗ ϕ(b) = ϕ̃([a]) ∗ ϕ̃([b])

20
iii) ϕ̃ ist bijektiv:
– ϕ̃ ist injektiv: Seien [a], [b] ∈ G/ker ϕ mit ϕ̃([a]) = ϕ̃([b]), d.h. aber
ϕ(a) = ϕ(b), also [a] = [b].
– ϕ̃ ist surjektiv: Sei y ∈ im ϕ, d.h. ∃ a ∈ G : ϕ(a) = y, also ϕ̃([a]) = y.

2.2.7 Beispiele

ϕ : (D6 , ◦) → (Z2 , +)
ϕ(da ) = 0, ϕ(sa ) = 1 ∀ a ∈ {0, . . . , 5}

ist ein Homomorphismus, denn es gilt für beliebige a, b ∈ {0, . . . , 5}.

ϕ(da ◦ db ) = ϕ(da+b ) = 0 = 0 + 0 = ϕ(da ) + ϕ(db )


ϕ(da ◦ sb ) = ϕ(sa+b ) = 1 = 0 + 1 = ϕ(da ) + ϕ(sb )
ϕ(sb ◦ da ) = ϕ(sa−b ) = 1 = 1 + 0 = ϕ(sb ) + ϕ(da )
ϕ(sa ◦ sb ) = ϕ(da−b ) = 0 = 1 + 1 = ϕ(sa ) + ϕ(sb )

ϕ ist surjektiv: im(ϕ) = Z2 .


ker(ϕ) = {da | a ∈ {0, . . . , 5}} ist eine Untergruppe von D6 .
Nach dem Homomorphisatz ist D/ker ϕ isomorph zu Z2 .
• Es ist (Zm , +) = ({[i] : i ∈ {0, . . . , m − 1}} , +m ) die Restklassengruppe mo-
dulo m. Die in der Definition verwendeten i heißen kanonische Repräsentanten
der Klassen.

ϕ : Z → Zm
i 7→ [i]

ker(ϕ) = [0] = {x ∈ Z | ∃ y ∈ Z : x = m · y} = m · Z, also gilt nach Homomorphi-


satz Z/mZ ∼= Zm .

21
3 Ringe, Körper, Polynome
3.1 Definitionen: Ring und Körper
3.1.1 Ringe
Definition 3.1. (R, +, ·) ist ein Ring, wenn gilt
R1 (R, +) ist eine abelsche Gruppe.
R2 · ist eine assoziative Operation R × R → R.
R3 Es gelten die Distributivgesetze für beliebige a, b, c ∈ R:
a · (b + c) = a · b + a · c
(a + b) · c = a · c + b · c

(R, +, ·) heißt kommutativ, wenn für beliebige a, b ∈ R gilt: a · b = b · a.


(R, +, ·) ist ein Ring mit Eins, wenn ∃ 1 ∈ R mit 1 · a = a · 1 = a.
Bemerkung. Ist R ein Ring, so bezeichnet man das neutrale Element bezüglich + mit
0.
Es gilt: 0 · a = a · 0 = 0.
Beweis.
D
a · 0 = a · (0 + 0) = a · 0 + a · 0 ⇔ 0 = a · 0
0 · a = 0 folgt analog.

3.1.2 Beispiele
1. (Z, +, ·) ist ein kommutativer Ring mit Eins.
2. (R, +, ·) ist ein kommutativer Ring mit Eins.
3. Sei R = {f : [0, 1] → R} mit den Operationen + und ·, die wie folgt definiert
sind
(f + g)(x) := f (x) + g(x) ∀ x ∈ [0, 1]
(f · g)(x) := f (x) · g(x) ∀ x ∈ [0, 1]
(R, +, ·) ist ein kommutativer Ring mit Eins. Aber es gibt nicht für alle Elemente
von (R, +, ·) multiplikative Inverse.
4. (Zm , +, ·) ist ein kommutativer Ring mit Eins.
5. (2Z, +, ·) ist ein kommutativer Ring ohne Eins, denn 1 6∈ 2Z.
6. (Rn×n , +, ·) - der Ring der quadratischen reellen Matrizen - ist ein Ring mit
Eins, wobei
  

 a11 a12 ... a1n 

a21 a22 ... a2n

  

n×n
:=   | aij ∈ R ∀ i, j = 1, . . . , n
 
R .. .. .. ..



 . . . .  


an1 an2 . . . ann
 
n o
= (aij )i,j=1,...,n | aij ∈ R ∀ i, j = 1, . . . , n

22
und die Addition komponentenweise:

(aij )i,j=1,...,n + (bij )i,j=1,...,n = (aij + bij )i,j=1,...,n

und die Multiplikation wie folgt definiert ist


n
!
X
(aij )i,j=1,...,n + (bij )i,j=1,...,n = aik · bik
k=1 i,j=1,...,n

Dann ist (0)i,j=1,...,n das neutrale Element der Multiplikation, entsprechend


(−aij )i,j=1,...,n das additive Inverse zu (aij )i,j=1,...,n .
 
1 0 ... 0

 0 1 ... 0 

 .. .. . . .. 
 . . . . 
0 0 ... 1

ist das neutrale Element der Multiplikation.


Der Ring ist ab n = 2 nicht kommutativ, denn es gilt beispielsweise
         
1 1 1 0 2 1 1 1 1 0
· = 6= · ·
0 1 1 1 1 1 1 2 1 1

3.1.3 Nullteilerfreiheit
Definition 3.2. Sei (R, +, ·) ein Ring. R heißt nullteilerfrei, falls gilt

a · b = 0 ⇒ a = 0 ∨ b = 0 ∀ a, b ∈ R

3.1.4 Gegenbeispiele
• (R2×2 , +, ·) ist nicht nullteilerfrei, denn es gilt
     
1 0 0 0 0 0
· =
0 0 0 1 0 0

• (Z6 , +, ·) ist nicht nullteilerfrei, denn es gilt

[2] · [3] = [2 · 3] = [6] = [0]

• RR , +, ·) ist nicht nullteilerfrei, denn für


( (
1, x = 1 0, x=1
f (x) := g(x) :=
0, x 6= 1 1, x 6= 1

gilt (f · g)(x) = 0 ∀ x ∈ R.

3.1.5 Unterringe
Definition 3.3. U ist ein Unterring von (R, +, ·), wenn (U, +) Untergruppe von (R, +)
und · : U × U → U abgeschlossen ist.

23
3.1.6 Ringhomomorphismen
Definition 3.4. ϕ : (R, +, ·) → (S, ⊕, ) ist ein Ringhomomorphismus, wenn gilt

ϕ(a + b) = ϕ(a) ⊕ ϕ(b)


ϕ(a · b) = ϕ(a) ϕ(b)

3.1.7 Körper
Definition 3.5. (K, +, ·) ist ein Körper, wenn gilt
K1 (K, +) ist eine abelsche Gruppe.
K2 (K ∗ , ·) ist eine abelsche Gruppe.
K3 Distributivgesetz, d.h. für alle a, b, c ∈ K gilt

a · (b + c) = a · b + a · c

3.1.8 Notation
• 0 - neutrales Element von (K, +)
• 1 - neutrales Element von (K, ·)
• −a - Inverses von a in (K, +)
• 1
a = a−1 - Inverses von a in (K ∗ , ·)

3.1.9 Eigenschaften von Körpern


Satz. Sei (K, +, ·) ein Körper. Es gilt
i) 0 6= 1, weil 1 ∈ K ∗ und 0 6∈ K ∗ .
ii) a · b = a ⇒ a = 0 ∨ b = 0, weil (K ∗ , ·) abgeschlossen ist (Nullteilerfreiheit).
iii) a · (−b) = −(a · b), denn es gilt
D
a·b+a·(−b) = a·(b+(−b)) = a·0 = 0 = a·b+(−(a·b)) ⇔ a·(−b) = −(a·b)

iv) (−a) · (−b) = a · b, folgt aus iii).

3.1.10 Beispiele
1. (R, +, ·) ist ein Körper.
2. (Q, +, ·) ist ein Körper.
3. (Z, +, ·) ist kein Körper, nur 1 und −1 habe multiplikative Inverse.
4. Der 3. Beispielring ist kein Körper, auch hier fehlen Inverse.
5. (C, +, ·) ist ein Körper.
6. (Z2 , +, ·) ist ein Körper.

24
3.1.11 Der Körper der komplexen Zahlen
Motivation N fehlt bezüglich + die Inversen, also erweitert man die Menge der na-
türlichen Zahlen auf die Menge der ganzen Zahlen Z. Diesen wiederum die multipli-
kativen Inversen, also konstruiert man Q. (Q, +, ·) ist zwar ein Körper, man kann aber
gewisse Gleichungen nicht in ihm lösen, z.B. x2 = 2. Mit Hilfe von Cauchy-Folgen,
Dedekind’schen Schnitten, Intervallschachtelungen oder ähnlichen Objekten/Verfahren
vervollständigt man Q zu R (siehe Analysis).
Jedoch gibt es immer noch Gleichungen, die keine Lösung in R haben, z.B. x2 = −1.
Also definiert man eine neue Zahl i als eine Lösung ebendieser Gleichung x2 = −1.
Dann ist i2 = −1 und (−i)2 = −1, wodurch man die Anordnung des Körpers verliert.
Nun ist jede quadratische Gleichung lösbar in C, d.h. ∃ z ∈ C : z 2 + pz + q = 0.
Definition 3.6. Die Menge der komplexen Zahlen ist definiert als

C := {a + b · i | a, b ∈ R}

Jede komplexe Zahl z hat also die Gestalt z = a + b · i für a, b ∈ R. a heißt der Realteil
von z, man schreibt Re(z) = a, und b Imaginärteil, also Im(z) = b.
Wie man (relativ) leicht nachprüfen kann, ist (C, +, ·) ein Körper (siehe 2. Analysis-
Übungsblatt, 3. Aufgabe).

Geometrische Interpretation Der Zahlenstrahl der reellen Zahlen wird zur Gauß’schen
Zahlenebene:

Man kann also sagen


C∼
= R2
Und man schreibt
z = a + bi = r · cos ϕ + i · r · sin ϕ
wobei r die Länge des Pfeils ist, nach Pythagoras also
p
r = a2 + b2 =: |z|

(a, b) heißen die kartesischen Koordinaten von z und (r, ϕ) die Polarkoordinaten
von z.

Rechnen mit komplexen Zahlen Es gilt


für die Addition:
(a + bi) + (c + di) = (a + c) + (b + d)i

25
Veranschaulichung:

und für die Multiplikation

(a + bi) · (c + di) = (a · c − b · d) + (a · d + b · c)i

bzw.

(r1 · cos ϕ1 + i · r1 · sin ϕ1 ) · (r2 · cos ϕ2 + i · r2 · sin ϕ2 )


= r1 · r2 · [(cos ϕ1 · cos ϕ2 − sin ϕ1 · sin ϕ1 ) + i · (cos ϕ1 · sin ϕ2 + sin ϕ1 · ϕ2 )]
= r1 · r2 · [cos(ϕ1 + ϕ2 ) + i · sin(ϕ1 + ϕ2 )]

Veranschaulichung:

Wenn z = a + bi, dann heißt a − bi = z komplex-konjugierte Zahl von z.


Es gilt für alle z, z 0 ∈ C

1 1 1
(z + z) = (Re(z) + Im(z) · i + Re(z) − Im(z) · i) = (2Re(z)) = Re(z)
2 2 2
1 1 1
(z − z) = (Re(z) + Im(z) · i − Re(z) + Im(z) · i) = (2Im(z) · i) = Im(z)
2i 2i 2i

26

2
z · z = (a + bi) · (a − bi) = a2 − abi + abi + b2 = a2 + b2 = |z|


z + z0 = z + z0
z · z0 = z · z0


|z| + |z 0 | ≤ |z + z 0 |

Beweis.
2
|z + z 0 | = (z + z 0 ) · (z + z 0 )
= (z + z 0 ) · z + z 0


= z · z + z · z0 + z0 · z + z0 · z0
2 2
= |z| + 2Re(z · z 0 ) + |z 0 |
2 2
≤ |z| + 2 |z · z 0 | + |z 0 |
2
= (|z| + |z 0 |)
Durch Wurzelziehen folgt die Behauptung


1 z z
= = 2
z z·z |z|

3.2 Polynome
3.2.1 Definition
Definition 3.7. Ein Polynom mit Koeffizienten in einem Körper K ist ein Ausdruck
n
f (x) = a0 + a1 · x + . . . + an · xn = ak · xk , wobei n ∈ N0 , ai Koeffizienten und
P
k=0
x Unbestimmte heißen. an 6= 0 heißt Leitkoeffizent.
(Man kann „Körper“ auch gegen „kommutativer Ring mit Eins“ austauschen und
später konkretisieren.)
Bemerkung. Zwar kann man für x ein Element aus k einsetzen und so eine Abbildung
f : K → K definieren, aber Polynome und Polynomabbildungen sind zu unterschei-
den.

3.2.2 Beispiel
f (x) = x2 g(x) = x3
f, g sind Polynome und für jeden Körper gilt f 6= g.
Über K = R sind f und g verschiedene Abbildungen, für K = Z2 sind f, g allerdings
gleich als Abbildungen, denn es gilt
f (0) = 0 = g(0), f (1) = 1 = g(1)

27
3.2.3 Polynomringe
Definition 3.8. Sei K[x] die Menge alle Polynome mit Koeffizienten in K in der Un-
bestimmten x.
Seien f, g ∈ K[x] mit
n
X m
X
k
f= ak · x , g = bk · xk
k=0 k=0

für m ≥ n, dann definiere eine Addition wie folgt:


m
X
f + g := (ak + bk ) · xk
k=0

wobei alle Koeffizienten ai mit i > n als 0 angenommen werden.


Die Multiplikation wird definiert durch
n+m
X
f · g := ck · xk
k=0

wobei
k
X
ck := a0 · bk + a1 · bk−1 + . . . + ak · 0 = ai · bk−i
i=0

(Die Multiplikation ist die gewohnte Multiplikation von Polynomen.)


Satz 3.2.1. (K[x], +, ·) ist ein kommutativer Ring mit Eins.
(Auch hier kann man immer „Körper“ K gegen „kommutativer Ring mit Eins“ R
austauschen.)
Beweis. Sei K ein Körper und + und · auf K[x] wie oben definiert. Es sind folgende
Punkte zu zeigen:
R1 (K[x], +) ist eine abelsche Gruppe, d.h.
– Abgeschlossenheit: Kann direkt aus der Definition abgelesen werden.
– Assoziativität: Leicht einzusehen, da die Polynome „komponentenweise“
addiert werden, d.h. die Koeffizenten der Unbestimmten gleichen Grades
addiert werden.
– Kommutativität: Ebenso.
– Existenz eines neutralen Elements: Das Nullpolynom o = 0 ist neutrales
Element der Addition, wie man leicht einsieht.
n
ak · xk , dann sei −f :=
P
– Existenz von Inversen: Sei f ∈ K[x] mit f =
k=0
n
k
P
(−ak ) · x , und es gilt
k=0

n
X n
X
f + (−f ) = (ak + (−ak )) · xk = 0 · xk = 0 = o
k=0 k=0

28
R2* · ist eine kommutative, assoziative Operation mit einem Einselement in K[x],
d.h.
– Abgeschlossenheit: Kann man aus der Definition ablesen. Seien f, g ∈
K[x] wie in der Definition gegeben, dann sind die ck der Definition ge-
wiss Körperelemente, der Leitkoeffzient ist cm+n 6= 0 (siehe Gradformel,
Definition 3.9 unten).
– Assoziativität: Seien a, b, c ∈ K[x] mit
n1
X n2
X n3
X
a= ai · xi , b = bi · x i , c = ci · xi
i=0 i=0 i=0

wobei n1 , n2 , n3 ∈ N0 , dann gilt


nX
! !
2 +n3 k
X
a · (b · c) = a · bi · ck−i · xk
k=0 i=0
n1 +(n2 +n3 ) k k−m
!
X X X
= am · bi · ck−m−i · xk
k=0 m=0 i=0
(n1 +n2 )+n3 k k
!
X X X
= am · bi−m · ck−i · xk
k=0 m=0 i=m
(n1 +n2 )+n3 k i
!
X X X
= am · (bi−m · ck−i ) · xk
k=0 i=0 m=0
(n1 +n2 )+n3 k i
! !
A
X X X
= am · bi−m · ck−i · xk
k=0 i=0 m=0
nX
! ! !
1 +n2 k
X n3
X
k k
= am · bk−m ·x · ck · x
k=0 m=0 k=0
" n1
! n2
!# n3
!
X X X
k k k
= ak · x · bk · x · ck · x
k=0 k=0 k=0
= (a · b) · c

– Kommutativität: Seien a, b wie oben, dann gilt


n+m k
!
X X
a·b= ai · bk−i · xk
k=0 i=0
m+n k
!
K
X X
= bk−i · ai · xk
k=0 i=0
m+n k
!
X X
= bi · ak−i · xk
k=0 i=0
=b·a

– Existenz einer Eins: Es ist 1K[x] = 1K , wie man leicht einsieht.

29
R3 Distributivgesetz: Seien a, b, c wie oben gegeben, dann gilt
 
max{n2 ,n3 }
X
a · (b + c) = a ·  (bk + ck ) · xk 
k=0
n1 +max{n2 ,n3 } k
!
X X
= ai · (bk−i + ck−i ) · xk
k=0 i=0
n1 +max
Xn2 ,n3 k
!
D
X
= ai · bk−i + ai · ck−i · xk
k=0 i=0
n1 +max{n2 ,n3 } k k
!
X X X
= ai · bk−i + ai · ck−i · xk
k=0 i=0 i=0
n1 +max{n2 ,n3 } k
! k
!
X X X
k
= ai · bk−i ·x + ai · ck−i · xk
k=0 i=0 i=0
n1 +max{n2 ,n3 } n1 +max{n2 ,n3 }
k
! k
!
X X X X
k
= ai · bk−i ·x + ai · ck−i · xk
k=0 i=0 k=0 i=0

Wenn k > n1 + n2 , dann ist, wenn i > n1 , ai = 0, oder, wenn i < n1 , d.h.
k − i > n2 , bi = 0. Analoges für k > n1 + n3 und ai , ci . Da max {n2 , n3 } ≥ n2
und max {n2 , n3 } ≥ n3 ist also
n1 +max{n2 ,n3 } k
!
X X
ai · bk−i · xk = 0
k=n1 +n2 i=0

bzw.
n1 +max{n2 ,n3 } k
!
X X
ai · ck−i · xk = 0
k=n1 +n3 i=0

Also gilt
nX
! !
1 +n2 k
X nX
1 +n3 k
X
k
... = ai · bk−i ·x + ai · ck−i · xk
k=0 i=0 k=0 i=0
= (a · b) + (a · c)

Bemerkung. Die Operationen +, · für Polynome und für Polynomabbildungen sind


verträglich. D.h., wenn f, g ∈ K[x], h = f + g und i = f · g, dann gilt h(α) =
f (α) + g(α) und i(α) = f (α) · g(α) für alle α ∈ K.

3.2.4 Gradformel
Definition 3.9. Der Grad deg(f ) des Polynoms f ∈ K[x] ist n = max {i ∈ N0 : ai 6= 0}.
Der Grad des Nullpolynoms wird definiert als deg(o) = −∞.
(Spätestens ab hier müssen die Polynome über Körpern definiert werden, sonst wird
die folgende Bemerkung falsch.)

30
Proposition 3.2.1. Für f, g ∈ K[x] gilt
• deg(f + g) ≤ max {deg(f ), deg(g)}
• deg(f · g) = deg(f ) + deg(g)
Beweis. Wenn f, g ∈ K[x] mit deg(f ) = n und deg(g) = m, dann ist per Definition
max{n,m}
X
deg(f + g) = deg( (ak + bk ) · xk ) ≤ max {deg(f ), deg(g)}
k=0

und der n + m-te Koeffizient des Produkts f · g:


n+m
X
cn+m = ai · bn+m−i = an · bm 6= 0
|{z} |{z}
i=0 6=0 6=0

denn für i < n ist n + m − i > m, d.h. bm = 0, und für i > n ist ai = 0.

3.2.5 Nullteilerfreiheit
Folgerung. Der Ring K[x] ist nullteilerfrei, d.h. für alle f, g ∈ K[x] mit f 6= o und
g 6= o gilt
f · g 6= o
Beweis. Seien f, g ∈ K[x] mit f 6= o und g 6= o, d.h. deg(f ) ≥ 0 und deg(g) ≥ 0,
dann gilt nach Gradformel

deg(f · g) = deg(f ) + deg(g) ≥ 0

3.2.6 Polynomdivision
Zwar gibt es in K[x] keine multiplikativen Inversen, aber wie im Ring (Z, +, ·) der
ganzen Zahlen gibt es eine Division mit Rest.
Satz 3.2.2. Sind f, g ∈ K[x] mit g 6= o, dann gibt es eindeutig bestimmte q, r ∈ K[x]
mit
f =q·g+r
wobei deg(r) < deg(g).
Beweis. Es wird zunächst die Eindeutigkeit gezeigt. Angenommen f = q1 · g + r1 mit
deg(r1 ) < deg(g) und f = q2 · g + r2 mit deg(r2 ) < deg(g), dann gilt

q1 · g + r1 = q2 · g + r2 ⇔ (q1 − q2 ) · g = r2 − r1

Wenn q1 − q2 6= o, dann ist nach Gradformel deg((q1 − q2 ) · g) = deg(q1 − q2 ) +


deg(g) ≥ deg(g), während deg(r2 − r1 ) < deg(g), was einen Widerspruch darstellt.
Also muss q1 − q2 = o gelten, dann ist q1 = q2 und (q1 − q2 ) · g = o · g = o, also auch
r2 − r1 = o, d.h. r2 = r1 .
Wenn eine solche Darstellung existiert, dann ist sie also eindeutig. Zum Beweis der
Existenz:

31
Es wird o.B.d.A. angenommen, dass deg(f ) ≥ deg(g), ansonsten wählt man q = o
und r = f , dann ist q · g + r = o · g + f = o + f = f und deg(r) = deg(f ) < deg(g).
Induktion über deg(f ):
Induktionsanfang
Aus deg(f ) = 0 folgt deg(g) = 0, also f, g ∈ K. Dann gibt es aber g −1 ∈ K mit
g −1 ·g = 1, also wählt man q = f ·g −1 und r = o, dann gilt q·g+r = (f ·g −1 )·g+o =
f.

Induktionsschritt
Sei die Aussage nun für alle Polynome mit einem Grad kleiner als deg(f ) bewiesen.
Sei n := deg(f ) und m := deg(g), a der Leitkoeffizent von f und b der Leitkoeffizent
von g, dann betrachte das Polynom
a
f − · xn−m · g
b
das so konstruiert ist, dass der Leitkoeffizient von f sich hinweghebt, für das also gilt
a
deg(f − · xn−m · g) < deg(f )
b
Auf dieses Polynom wird die Induktionsvoraussetzung angewendet, d.h.
a
∃ q 0 , r : f − · xn−m · g = q 0 · g + r
b
mit deg(r) < deg(g),
umgestellt
a n−m
∃ q 0 , r : f = (q 0 +
·x )·g+r
b
womit man die gewünschte Darstellung erhält.
Ein Polynom g teilt ein Polynom f , wenn das Restpolynom bei der Polynomdivi-
sion das Nullpolynom ist.

3.2.7 Beispiel
Wenn f = 2x3 + x − 5 und g = x2 + 1 mit f, g ∈ Q[x], dann gilt
−x−5
(2x3 +x −5) : (x2 + 1) = 2x + x2 +1
−2x3 −2x
−x −5

3.2.8 Folgerungen, Nullstellen


Folgerung 3.2.8.1. (Satz von Ruffini)
Ist α ∈ K eine Nullstelle (Wurzel) von f ∈ K[x], d.h. f (α) = 0, dann ist f =
q · (x − α) für ein q ∈ K[x] (sprich: der Linearfaktor (x − α) kann abgespalten
werden).
Beweis. Nach dem Satz über die Polynomdivision gibt es eindeutig bestimmte q, r ∈
K[x] mit
f = q · (x − α) + r
wobei deg(r) < deg(x − α) = 1, also r ∈ K.
Einsetzen ergibt: 0 = f (α) = q(α) · (α − α) + r(α) = q(α) · 0 + r(α) = r(α), also
r(α) = 0 und damit r = o.

32
Folgerung 3.2.8.2. Ein Polynom vom Grad n hat höchstens n Nullstellen (unabhängig
von Körper).

Beweis. Induktion nach dem Grad von f :


Induktionsanfang
Ist deg(f ) = 0, dann hat f keine Nullstelle und die Folgerung ist trivialerweise richtig.

Induktionsschritt
Sei die Folgerung nun für alle Polynome mit Graden kleiner als deg(f ) =: n bewiesen.
Wenn f die Nullstelle α ∈ K hat, dann gilt nach Folgerung 1

f = q · (x − α)

mit deg(f ) = deg(g) · deg(x − α) nach Gradformel, also deg(g) = n − 1. Nach


Induktionsvoraussetzung hat q höchstens n − 1 Nullstellen, also hat f höchstens n
Nullstellen.
Folgerung 3.2.8.3. Ist K unendlich, dann gilt:
f = o ∈ K[x] ist das einzige Polynom mit f (α) = 0 für alle α ∈ K.
Beweis. Jedes Polynom f ∈ K[x] mit deg(f ) = n ∈ N hat nach Folgerung 2 höchs-
tens n Nullstellen, d.h. es gibt höchstens n Elemente α ∈ K mit f (α) = 0. Wenn es
also ein Polynom f ungleich dem Nullpolynom gäbe mit f (α) = 0 für alle α ∈ K,
dann gibt es notwendigerweise nur deg(f ) ∈ N Elemente in K.
Folgerung 3.2.8.4. Es gilt auch die Umkehrung: In jedem endlichen Körper gibt es ein
Polynom f 6= o mit f (α) = 0 für alle α ∈ K.
Beweis. Sei K = {k1 , k2 , . . . , kn }, dann ist

f = (x − k1 ) · (x − k2 ) · . . . · (x − kn )

wegen der Nullteilerfreiheit nicht o, also das gesuchte Polynom.


Folgerung 3.2.8.5. Ist K unendlich, dann sind Polynome f, g ∈ K[x] mit f (α) =
g(α) für alle α ∈ K auch als Polynome gleich.
Beweis. Aus f (α) = g(α) folgt f (α) − g(α) = 0, also (f − g)(α) = 0 für alle α ∈ K.
In einem unendlichen Körper gilt dies aber nur für das Nullpolynom, also ist f −g = o,
d.h. f = g.

3.2.9 Fundamentalsatz der Algebra


Satz 3.2.3. Jedes Polynom f ∈ C[x] mit deg(f ) ≥ 1 hat mindestens eine Nullstelle.
Folgerung. Jedes Polynom f ∈ C[x] zerfällt in Linearfaktoren:

f = α · (x − α1 ) · (x − α2 ) · . . . · (x − αn )

33
3.2.10 Lemma von Bezout
(Das Nachfolgende Lemma wurde in der Vorlesung nicht erwähnt, soll an dieser Stel-
le aber eingeführt und bewiesen werden, um den Beweis des nächsten Abschnittes zu
vervollständigen.)

Lemma 3.1. Sei K[x] ein Polynomring und f, g ∈ K[x] Polynom. Wenn es kein
Polynom vom Grad ≥ 1 gibt, dass sowohl f als auch g teilt, so gibt es eindeutig
bestimmte Polynome f ∗ , g ∗ mit

f · f ∗ + g · g∗ = 1

Beweis. Sei o.B.d.A. deg(f ) ≥ deg(g). Wenn g das Nullpolynom ist, und f damit g
in jedem Fall teilt, muss deg(f ) < 1 sein. D.h. f ∈ K, also wähle f ∗ = f −1 (Inverses
im Körper) und g ∗ = g, dann gilt: f · f ∗ + g · g ∗ = 1 + o = 1.
Der Beweis erfolgt durch vollständige Induktion nach dem Grad von f .
Für den Induktionsanfang sei deg(f ) = 0, also auch deg(g) = 0, damit sind beide
Polynome Körperelemente. Setzt man f ∗ = f −1 und g ∗ = o, so ergibt sich: f · f ∗ +
g · g ∗ = 1 + o = 1.
Sei das Lemma nun für alle Polynome mit Graden kleiner als deg(f ) bewiesen. Nach
dem Satz über die Polynomdivision gibt es eindeutig bestimmte q, r ∈ K[x] mit

f =q·g+r

wobei deg(r) < deg(g).


r und g sind teilerfremd, denn angenommen es gäbe ein h ∈ K[x], das r und g teilt,
dann teilt h (nach Distributivgesetz) auch q · g + r = f , was ein Widerspruch dazu ist,
dass f und g teilerfremd sind. Nach Induktionsvoraussetzung gibt es g 0 und r0 mit

g · g0 + r · r0 = 1

Setzt man r = f − q · q ein, so erhält man

g · g 0 + (f − q · g) · r0 = g · g 0 + f · r0 − q · g · r0 = f · r0 + g · (g 0 − q · r0 ) = 1

Setzt man f ∗ = r0 und g ∗ = g 0 − q · r0 , so erhält man die Behauptung.

3.2.11 Spezielle Faktorpolynomringe


Sei K[x] der Ring aller Polynome über K und g ∈ K[x]. Betrachte nun g · K[x] :=
{h ∈ K[x] | ∃ f ∈ K[x] : h = g · f }, also das Analogon zu m·Z für den Ring (Z, +, ·).
Im Ring der ganzen Zahlen ist
Z/mZ =: Zm
ein Ring, wenn m prim ist sogar ein Körper. Ebenso gilt für Polynomringe
Satz 3.2.4. K[x]/gK[x] =: K[x]g ist mit den von K[x] geerbten Operationen + und ·
ein Ring, wenn g über K irreduzibel (nicht in Linearfaktoren zerlegbar über K) sogar
ein Körper.
Beweis. Sei also g ∈ K[x]. Es wird die Äquivalenzrelation ∼ wie folgt erklärt:

x ∼ y ⇔ ∃ f ∈ K[x] : x − y = f · g

34
K[x]g ist nun die Menge aller Äquivalenzklassen von ∼. Dann wird definiert für
[x], [y] ∈ K[x]g
[x] + [y] := [x + y]
[x] · [y] := [x · y]
Zu zeigen ist nun, dass (K[x]g , +, ·) ein Ring ist, d.h. im Einzelnen
R1 (K[x]g , +) ist eine abelsche Gruppe, d.h. wiederum
– Wohldefiniertheit von +: Seien [x] = [x0 ] und [y] = [y 0 ], dann gilt
∃ f1 ∈ K[x] : x − x0 = f1 · g
∃ f2 ∈ K[x] : y − y 0 = f2 · g
also
∃ f1 , f2 ∈ K[x] : (x − x0 ) + (y − y 0 ) = f1 · g + f2 · g
d.h.
∃ f1 , f2 ∈ K[x] : (x + y) − (x0 + y 0 ) = (f1 + f2 ) · g
und damit
[x + y] = [x0 + y 0 ]
– Abgeschlossenheit von K unter +: Klar, wenn x, y ∈ K[x], dann ist x +
y ∈ K[x], also [x + y] ∈ K[x]g .
– Assoziativgesetz: Seien [x], [y], [z] ∈ K[x]g , dann gilt
([x]+[y])+[z] = [x+y]+[z] = [(x+y)+z] = [x+(y+z)] = [x]+[y+z] = [x]+([y]+[z])
– Kommutativgesetz:
[x] + [y] = [x + y] = [y + x] = [y] + [x]
– Existenz eines neutralen Elements: [o] ist auch das neutrale Element von
K[x]g , denn es gilt
[x] + [o] = [x + o] = [x]
– Existenz von Inversen: [−x] ist das inverse Element zu [x], denn es gilt
[−x] + [x] = [(−x) + x] = [o]
R2 · ist eine assoziative, kommutative Operation auf K[x]g mit Einselement in K[x]g ,
d.h. im Einzelnen
– Wohldefiniertheit von ·: Seien [x] = [x0 ] und [y] = [y 0 ], dann gilt
∃ f1 ∈ K[x] : x − x0 = f1 · g
∃ f2 ∈ K[x] : y − y 0 = f2 · g
also
∃ f1 , f2 ∈ K[x] : x·y = (f1 ·g+x0 )·(f2 ·g+y 0 ) = f1 ·g·f2 ·g+f1 ·g·y 0 +x0 ·f2 ·g+x0 ·y 0
d.h.
∃ f1 , f2 ∈ K[x] : (x + y) − (x0 + y 0 ) = (f1 · f2 · g + f1 · y 0 + f2 · x0 ) · g
und damit
[x · y] = [x0 · y 0 ]

35
– Abgeschlossenheit von K unter ·: Klar, wie bei +.
– Assoziativgesetz: Seien [x], [y], [z] ∈ K[x]g , dann gilt

([x]·[y])·[z] = [x·y]·[z] = [(x·y)·z] = [x·(y·z)] = [x]·[y·z] = [x]·([y]·[z])

– Kommutativgesetz:

[x] · [y] = [x · y] = [y · x] = [y] · [x]

– Existenz der Eins: [1] ist das neutrale Element von K[x]g bezüglich ·, denn
es gilt
[1] · [x] = [1 · x] = [x]
• Distributivgesetze: Wegen der Kommutativität genügt es, eines der beiden zu
zeigen:

[x]·([y]+[z]) = [x]·[y+z]+[x·(y+z)] = [x·y+x·z] = [x·y]+[x·z] = ([x]·[y])+([x]·[z])

Damit ist gezeigt, dass K[x]g ein kommutativer Ring mit Eins ist.

Sei g nun irreduzibel. Um zu zeigen, dass (K[x]g , +, ·) ein Körper ist, genügt es, die
Existenz der multiplikatives Inversen nachzuweisen für alle [f ] ∈ K[x]∗g .
Da g irreduzibel ist, ist g der einzige Teiler von sich selbst. Sei [f ] ∈ K[x]∗g , dann ist
[f ] ungleich [g], also ist f nicht durch g teilbar und damit teilerfremd zu g. Nach dem
Lemma von Bezout gibt es dann Polynome g ∗ und f ∗ mit

g∗ · g = 1 − f ∗ · f

das heißt also


[1] = [f ∗ · f ] = [f ∗ ] · [f ]
womit [f ∗ ] ∈ K[x]g multiplikatives Inverses zu [f ] ist.

3.2.12 Beispiele
• R[x]/(x2 + 1)R[x] ∼
=C

• Q[x]/(x2 − 2)Q[x] ist der kleinste Körper, der die rationalen Zahlen und 2
enthält: n √ o
Q[x]/(x2 − 2)Q[x] ∼ = a + 2 · b | a, b ∈ Q

36
4 Vektorräume
4.1 Definitionen
4.1.1 Vektorräume
Definition 4.1. Sei K ein Körper.
Eine Menge V ist ein Vektorraum über K, wenn es Operationen +, · gibt mit
V1 (V, +) ist eine abelsche Gruppe. Das neutrale Element dieser Gruppe nennt man
meist o und das Inverse zu v ∈ V nennt man −v.
V2 Für

·: K ×V →V
(λ, v) 7→ λ · v

genannt „skalare Multiplikation“, gelten folgende Gesetze

(i) (λ + µ) · v = λ · v + µ · v - Distributivgesetz 1
(ii) λ · (v + w) = λ · v + λ · w - Distributivgesetz 2
(iii) (λ · µ) · v = λ · (µ · v) - „Assoziativgesetz“
(iv) 1 · v = v - „multiplikative Neutralität der Körper-Eins“

4.1.2 Weitere Eigenschaften


Satz 4.1.1. Aus den Vektorraumaxiomen lassen sich weitere Eigenschaften ableiten.
Sei v ∈ V ein K-Vektorraum und λ ∈ K:

(a) 0 · v = o, denn es gilt: 0 · v = (0 + 0) · v = 0 · v + 0 · v ⇔ o = 0 · v.


(b) λ · o = o, denn es gilt: λ · o = λ · (o + o) = λ · o + λ · o ⇔ o = λ · o.
(c) Aus λ · v = o folgt λ = 0 oder v = o. Denn angenommen λ 6= 0 und λ · v = o,
dann ist letzteres äquivalent zu λ−1 · (λ · v) = λ−1 · o, d.h. 1 · v = o, also v = o.

(d) (−1) · v = −v, denn es gilt:

v−v = o = 0·v = (1+(−1))·v = 1·v+(−1)·v = v+(−1)·v ⇔ −v = (−1)·v

4.1.3 Beispiele
1. „Standardbeispiel“: K n := {x = (x1 , x2 , . . . , xn ) | xi ∈ K}, wobei Addition
und skalare Multiplikation komponentenweise definiert sind, d.h. für

(x1 , . . . , xn ), (y1 , . . . , yn ) ∈ K n , λ ∈ K

gilt

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )


λ · (x1 , x2 , . . . , xn ) = (λ · x1 , λ · x2 , . . . , λ · xn )

37
2. Die Menge der Polynome K[x] ist ein Vektorraum über K:
(K[x], +) ist eine abelsche Gruppe, weil (K[x], +, ·) ein Ring ist, und die restli-
chen Gesetz ergeben sich aus der schon definierten Multiplikation, weil Körper-
elemente lediglich Polynome vom Grad 0 sind.
3. Vektorraum der Funktionen über K: V = {f : M → K}, mit M eine beliebige,
feste Menge. Die Operationen sind punktweise definiert

(f + g)(x) := f (x) + g(x) ∀x ∈ M


(λ · f )(x) := λ · f (x) ∀x ∈ M

4. Vektorräum der Abbildungen von einer Menge M in einen K-Vektorräum W ist


ein K-Vektorräum. Die Operationen sind wie folgt definiert:
Sind F, G ∈ Abb(M, W ) und λ ∈ K:

(F + G)(m) := F (m) + G(m) ∀ m ∈ M


(λ · F )(m) := λ · F (m) ∀ m ∈ M

5. (K n×n , +, ·) - die quadratischen Matrizen von Elementen aus K - mit der kom-
ponentenweisen Addition und skalaren Multplikation ist ein K-Vektorraum.
6. Jeder Körper ist ein Vektorraum über sich selbst.

7. Allgemeiner: Ist L ⊆ K ein Unterkörper von K, dann ist K ein L-Vektorraum.

4.1.4 Untervektorräume
Definition 4.2. Sei V ein K-Vektorraum, dann heißt W ⊆ V Untervektorraum von V ,
wenn gilt
U1 o ∈ W

U2 v + w ∈ W ∀ v, w ∈ W
U3 λ · v ∈ W ∀ λ ∈ K, v ∈ W
Satz 4.1.2. Ein Untervektorraum W von V ist mit den induzierten Operationen selbst
ein Vektorraum.

Beweis. Die Vektorraumaxiome lassen sich leicht nachrechnen:


V1 (W, +) ist eine abelsche Gruppe, denn es gilt:
G1 Die Addition ist nach U2 auf W abgeschlossen. Assoziativität vererbt sich.
G2 Nach U1 ist o ∈ W . o ist neutrale Element von V , diese Eigenschaft vererbt
sich auf W .
G3 Wenn v ∈ W , dann ist nach U3 auch (−1) · v = −v in W , was auch in W
das zu v Inverse sein muss.
V2 Die Multiplikation ist nach U3 über W abgeschlossen und die Gesetze der Mul-
tiplikation vererben sich dank U2 und U3 auf W .

38
4.1.5 Beispiele
(a) Die trivialen Untervektorräume eines Vektorraums V sind W = {0} und W =
V.

(b) Wa = (x1 , x2 ) ∈ R2 | x1 + a · x2 = 0 für ein a ∈ R.
Allgemein: Lösungsräume homogener linearer Gleichungen in n Variablen über
K sind Untervektorräume des K n .
(c) W = {f : C → R | f (1) + (2 − i) · f (1 + i) = 0}
(d) R[x]d ⊂ R[x] ⊂ ζ 1 (R, R) ⊂ ζ 0 (R, R) ⊂ RR
| {z } | {z } | {z }
Polynome über R vom Grad d stetig differenzierbare Abb. stetige Abb.

4.1.6 Durchschnitte von Unterräumen sind Unterräume


Proposition 4.1.1. Sei V ein Vektorraum und I eine Indexmenge. Für i ∈ I sei Wi
ein Untervektorraum von V . Es gilt:
\
Wi
i∈I

ist ein Untervektorraum von V .


Beweis. Klar: Gilt eine Eigenschaft für alle Mengen des Durchschnitts, gilt sie auch
für den Durchschnitt selbst.

4.1.7 Beispiele
• V = R[x], dann ist die Menge Wk der Polynome, deren k-ter Koeffizient 0 ist,
ein Unterraum von V . Dann ist auch
\
W = Wk
k ungerade

ein Unterraum von R[x]. Es ist W ∼


= R[x2 ].
• Seien
n
X
aji · xi = 0
i=1

für j = 1, . . . , m homogene lineare Gleichungen über K n . Wie in Beispiel b) ist


der Lösungsraum Wk jeder der j Gleichungen für sich ein Unterraum des K n .
Nach Proposition ist also auch
\m
Wj
j=1
n
ein Unterraum des K .

39
4.1.8 Vereinigung von Unterräumen ist kein Unterraum
Achtung. Die Vereinigung von Vektorräumen ist im Allgemeinen kein Vektorraum.
Wenn U, W Unterräume von V sind, so ist U ∪ W nur dann ein Unterraum, wenn
V ⊆ W oder W ⊆ V .

Beweis. Wenn U ⊆ W oder W ⊆ U , dann ist U ∪ W = W , also ist U ∪ W ein


Vektorraum.
Seien U, W Unterräume mit U 6⊆ W und W 6⊆ U , d.h. es gibt ein u ∈ U mit u 6∈ W
und ein w ∈ W mit w 6∈ U . Dann ist u + w 6∈ U (ansonsten wäre auch (u + w) − u =
w ∈ U ) und u + w 6∈ W (ansonsten wäre auch (u + w) − w = u ∈ W ), also ist U2
für U ∪ W nicht erfüllt.

4.1.9 Beispiel
2
V = R , dann sei W1 Lösungsraum von x1 − x2 = 0 und W2 der Lösungsraum von
−2x1 − 5x2 = 0

Die Summe von Vektoren u ∈ W1 , v ∈ W2 ist im Allgemeinen nicht in der Vereini-


gung der Lösungsmengen.

4.1.10 Lineares Erzeugnis


Sei V ein Vektorraum über K und seien v1 , . . . , vr ∈ V .
Definition 4.3. v ∈ V heißt Linearkombination von v1 , . . . , vr ∈ V , wenn Skalare
λ1 , λ2 , . . . , λr ∈ K existieren, sodass gilt
r
X
v = λ1 · v1 + λ2 · v2 + . . . + λr · vr = λk · vk
k=1

Definition 4.4. Die Menge aller Linearkombinationen von v1 , . . . , vr ist das Erzeug-
nis oder der aufgespannte Raum von v1 , . . . , vr . Man schreibt dafür span(v1 , . . . , vr )
oder hv1 , . . . , vr i.
Proposition 4.1.2. hv1 , . . . , vr i ist der kleinste Untervektorraum von V , der v1 , . . . , vr
enthält.
Beweis. Zunächst wird gezeigt, dass hv1 , . . . , vr i ein Untervektorraum von V ist.

40
U1 Es ist o ∈ hv1 , . . . , vr i, dann für λ1 = λ2 = . . . = λr = 0 ∈ K ist
r
X r
X r
X
λk · vk = 0 · vk = o=o
k=1 k=1 k=1

U2 Seien v, w ∈ hv1 , . . . , vr i, d.h. es gibt λ1 , . . . , λr ∈ K und µ1 , . . . , µr ∈ K mit


r
X r
X
v= λk · vk , w= µk · vk
k=1 k=1

dann gilt
r
X r
X r
X
v+w = λk · vk + µk · wk = (λk + µk ) · vk ∈ hv1 , . . . , vr i
k=1 k=1 k=1

U3 Seien λ ∈ K und v ∈ hv1 , . . . , vr i, d.h. es gibt λ1 , . . . , λr ∈ K mit


r
X
v= λk · vk
k=1

dann gilt
r
X r
X r
X
λ·v =λ· λk · vk = λ · (λk · vk ) = (λ · λk ) · vk
k=1 k=1 k=1

Jeder Unterraum W von V , der v1 , . . . , vr enthält, enthält nach U2 und U3 auch


r
X
v= λ k · vk
k=1

für alle λ1 , . . . , λr ∈ K. Das heißt W ⊆ hv1 , . . . , vr i, also ist hv1 , . . . , vr i der kleinste
Untervektorraum von V , der v1 , . . . , vr enthält.

4.1.11 Lineare Unabhängigkeit


Definition 4.5. Eine endliche Menge von Vektoren v1 , . . . , vr aus dem K-Vektorraum
V heißt linear unabhängig, wenn aus
r
X
λ k · vk = o
k=1

folgt
λ1 = λ2 = . . . = λk = 0
In anderen Worten: Der Nullvektor lässt sich nur trivial aus den vi kombinieren.
Eine unendliche Familie (vi | i ∈ I) von Vektoren heißt linear unabhängig, falls jede
endliche Teilfamilie linear unabhängig ist.

41
4.1.12 Beispiele
... im R3 :
     
1 0 0
a) e1 =  0  , e2 =  1  , e3 =  0  sind linear unabhängig. Die einzi-
0 0 1
ge Lösung (λ1 , λ2 , λ3 ) von

λ1 · e1 + λ2 · e2 + λ3 · e3 = o

ist (λ1 , λ2 , λ3 ) = (0, 0, 0).


     
1 1 0
b) v1 =  1  , v2 =  0  , v3 =  1  sind linear unabhängig.
0 1 1
     
1 2 3
c) w1 =  2  , w2 =  1  , w3 =  3  sind linear abhängig, weil w1 +
2 1 3
w2 = w3 gilt, also w1 + w2 − w3 = o eine nicht-triviale Linearkombination des
Nullvektors ist.
d) Fasst man R[x] als Vektorraum über R auf, so ist {xn | n ∈ N} linear unabhän-
gig. Es gibt keine nicht-triviale endliche Linearkombination des Nullvektors.

4.1.13 Charakterisierung der linearen Unabhängigkeit


Proposition 4.1.3. Vektoren v1 , . . . , vr sind linear unabhängig genau dann, wenn sich
jedes v ∈ hv1 , . . . , vr i eindeutig als Linearkombination der vi darstellen lässt
Beweis. Hinrichtung: Angenommen es gibt einen Vektor v ∈ hv1 , . . . , vr i mit zwei
verschiedenen Darstellungen, also
r
X r
X
v= λ k · vk , v= µk · vk
k=1 k=1

dann gilt
r
! r
! r
X X X
o=v−v = λ k · vk − µk · vk = (λk − µk ) · vk
k=1 k=1 k=1

Aus der linearen Unabhängigkeit von v1 , . . . , vr folgt für alle k = 1, . . . , r

λk − µk = 0 ⇔ λk = µk

Widerspruch zu Annahme.
Rückrichtung: Wenn v1 , . . . , vr linear abhängig sind, dann hat der Nullvektor zwei
verschiedene Darstellungen (die triviale und eine nicht-trivale).
Folgerung. Wenn v1 , . . . , vr linear unabhängig sind, dann gilt für alle i = 1, . . . , r:
vi 6∈ hv1 , . . . , vi−1 , vi+1 , . . . , vr i (andernfalls gäbe es zwei Darstellungen von vi durch
die Vektoren v1 , . . . , vr , einmal als vi selbst und die zweite nur durch Vektoren aus
v1 , . . . , vi−1 , vi+1 , . . . , vr ).

42
Bemerkung. Wie man leicht einsieht, gilt:
i) Ein einzelner Vektor v 6= o ist immer linear unabhängig.

ii) ∅ ist linear abhängig.


iii) Wenn o ∈ {v1 , . . . , vr }, dann sind v1 , . . . , vr linear abhängig.
iv) Ist vi eine Linearkombination von v1 , . . . , vi−1 , vi+1 , . . . , vr , dann ist v1 , . . . , vr
linear abhängig.

4.2 Basis und Dimension


4.2.1 Basis
Definition 4.6. Sei V ein Vektorraum über K.
{v1 , . . . , vn } heißt Basis von V , wenn gilt

• hv1 , . . . , vn i = V
• {v1 , . . . , vn } sind linear unabhängig.
Ist {v1 , . . . , vn } Basis von V , dann kann jedes Element von V eindeutig als Line-
arkombination
Xn
v= λ k · vk
k=1

geschrieben werden.

4.2.2 Charakterisierung des Vektorraums durch eine seiner Basen


Proposition 4.2.1. (v1 , . . . , vn ) ist genau dann Basis eines K-Vektorraums V , wenn
für jedes Element v ∈ V genau ein

(λ1 , λ2 , . . . , λn ) ∈ K n

mit
n
X
v= λ k · vk
k=1

existiert.
Es gibt also eine Bijektion ϕ zwischen V und K n

ϕ : V ↔ Kn
v ↔ (λ1 , λ2 , . . . , λn )

die sogar strukturerhaltend ist (wie später gezeigt wird). Es ist also V ∼
= K n.
Beweis. Folgt aus der Definition und der Charakterisierung der linearen Unabhängig-
keit.

43
4.2.3 Beispiele
• Für V = K n heißt B = (e1 , e2 , . . . , en ) die kanonische Basis, mit

1 , 0, . . . , 0)
ei = (0, 0, . . . , |{z}
i-te Stelle

die Einheitsvektoren genannt werden.



• Für W = k ∈ R2 | x1 − x2 = 0 ist B = {(1, 1)} eine Basis.

• K[x] hat die Basis B = 1, x, x2 , . . . , xn , . . . .

4.2.4 Alternative Definitionen


Satz 4.2.1. Für eine Familie von Vektoren B = (v1 , . . . , vn ) aus einem Vektorraum V
ist äquivalent:
(i) B ist Basis.
(ii) B ist minimal erzeugend, d.h. hBi = V und für alle B 0 ( B gilt hB 0 i =
6 V.
(Basisauswahlsatz)
(iii) B ist maximal linear unabhängig, d.h. B ist linear unabhängig und für alle v ∈ V
gilt: B ∪ {v} ist linear abhängig. (Basisergänzungssatz)
Beweis. Man zeigt jeweils:
(i) ⇒ (ii) Angenommen B ist Basis und nicht minimal erzeugend, d.h.

∃ B 0 ( B : hB 0 i = V

Sei vi ∈ B\B 0 . Weil B 0 V erzeugt, lässt sich vi einerseits als Linearkombination


von Vektoren aus B 0 , andererseits durch vi selbst darstellen, womit B nicht linear
abhängig, also auch keine Basis sein kann.
(ii) ⇒ (i) Wenn B keine Basis, also nicht linear unabhängig ist, aber erzeugend ist, dann
gibt es für ein vi Skalare λk ∈ K mit
i−1
! n
!
X X
vi = λk · vk + λk · vk
k=0 k=i+1

Aus v ∈ hv1 , . . . , vn i folgt für Skalare µk ∈ K


n
X
v= µk · vk
k=0
i−1
! i−1
! n
!! n
!
X X X X
= µk · vk + µi · λ k · vk + λ k · vk + µk · vk
k=0 k=0 k=i+1 k=i+1
i−1
! i−1
! n
! n
!
X X X X
= µk · vk + (µi · λk ) · vk + (µi · λk ) · vk + µk · vk
k=0 k=0 k=i+1 k=i+1
i−1
! n
!
X X
= (µk + µi · λk ) · vk + (µk + µi · λk ) · vk
k=0 k=i+1

44
also v ∈ hv1 , . . . , vi−1 , vi+1 , . . . , vr i. Damit ist gezeigt, dass B nicht minimal
erzeugend ist.

(i) ⇒ (iii) Wenn B eine Basis ist, dann ist B erzeugend, d.h. für alle v ∈ V ist v ∈
hv1 , . . . , vn i. Weil v1 , . . . , vn sind linear unabhängig sind, ist {v, v1 , . . . , vn }
nicht linear unabhängig, d.h. B ist maximal linear unabhängig.
(iii) ⇒ (i) Wenn B zwar linear unabhängig, aber nicht erzeugend ist, dann gibt es ein v ∈ V
mit v 6∈ hv1 , . . . , vn i, d.h. {v, v1 , . . . , vn } ist linear unabhängig. Das heißt aber,
dass B nicht maximal linear unabhängig ist.

4.2.5 Existenz einer Basis für endlich erzeugbare Vektorräume


Folgerung. Ist X ⊆ V ein endliches Erzeugendensystem von V , d.h. hXi = V , dann
gibt es eine Basis.

Beweis. Jedes endliche Erzeugendensytem enthält ein minimales Erzeugendensystem,


also eine Basis.
Satz 4.2.2. Jeder endlich erzeugbare Vektorraum besitzt eine Basis.

4.2.6 Austauschlemma
n
P
Lemma 4.1. Sei B = (v1 , . . . , vn ) eine Basis von V und ist w = λk · vk mit
k=0
λi 6= 0, dann ist
B 0 = {v1 , . . . , vi−1 , vi+1 , . . . , vn }
eine Basis von V .
Beweis. Zu zeigen ist, dass B 0 Basis von V ist, also
1. hB 0 i = V :
Sei v ∈ V . dann existieren µ1 , . . . , µn ∈ K mit

v = µ1 v1 + . . . + µn · vn

O.B.d.A. sei k = 1, also w = λ1 · v1 + . . . λn · vn , λ1 6= 0.


Wegen λ1 6= 0 gilt:

1 λ2 λ3 λn
v1 = ·w− · v2 − · v3 − . . . − · vn
λ1 λ1 λ1 λ1
Daraus folgt
     
µ1 λ2 λ3 λn
v= ·w+ µ2 − µ1 · ·v2 + µ3 − µ1 · ·v3 +. . .+ µn − µ1 · ·vn
λ1 λ1 λ1 λ1

Also B = hw, v2 , . . . , vn i = V .

45
2. B 0 = (w, v2 , v3 , . . . , vn ) ist linear unabhängig.
Sei γ1 · w + γ2 · v2 + . . . + γn · vn = 0. Nach Voraussetzung ist

w = λ1 · v1 + λ2 · v2 + . . . + λn · vn

mit λ1 6= 0.
Dann ist

o = γ1 · w + γ2 · v2 + . . . + γn · vn
= γ1 · (λ1 · v1 + λ2 · v2 + . . . + λn · vn ) + γ2 · v2 + . . . + γn · vn
= γ1 · λ1 · v1 + (γ1 · λ2 + γ2 ) · v2 + . . . + (γ1 · λn + γn ) · vn

Mit der linearen Unabhängigkeit von v1 , . . . , vn folgt

γ1 · λ1 = 0 ⇒ γ1 = 0

und dann
γ1 · λk + γk = 0 + γk = 0 ⇒ γk = 0
für alle k = 2, . . . , n, also

γ1 = γ2 = . . . = γn = 0

4.2.7 Austauschsatz von Steinitz


Die anschließenden Folgerungen werden bedeutend einsichtiger und einfacher zu be-
weisen, hat man vorher den Austauschsatz von Steinitz zur Verfügung (der äquivalent
zum Austauschlemma ist). Im Gegensatz zur Vorlesung wird also zunächst dieser Satz
bewiesen und dann bei den Folgerungen verwendet.
Satz. Sei B = {v1 , . . . , vn } eine Basis des K-Vektorraums V und C = {w1 , . . . , wm }
eine Menge linear unabhängiger Vektoren. Dann gibt es eine Menge von n − m Vek-
toren, o.B.d.A. vm+1 , . . . , vn , sodass

{w1 , . . . , wm , vm+1 , . . . , vn }

eine Basis von V ist.


Beweis. Beweis durch vollständige Induktion über m
Für m = 1 folgt der Satz direkt aus dem Austauschlemma.
Sei m > 1 und der Austauschsatz für Mengen C 0 mit m − 1 Elementen gezeigt.
Sei C = {w1 , . . . , wm } eine Menge linear unabhängiger Vektoren, dann betrachte
zunächst C 0 = C \ {wm }. C 0 besitzt m − 1 Elemente, also kann man die Induktions-
voraussetzung darauf anwenden:

{w1 , . . . , wm−1 , vm , vm+1 , . . . , vn }

ist eine Basis von V . Man kann also wm ∈ V als Linearkombination dieser Vektoren
darstellen:
m−1
X n
X
wm = λk · wk + λk · v k
k=1 k=m

46
Es muss ein i ≥ m geben mit λi 6= 0, denn sonst wäre
m−1
X
wm = λk · wk
k=1

was wiederum ein Widerspruch zur linearen Unabhängigkeit von w1 , . . . , w1 wäre.


Sei o.B.d.A i = m, dann ist nach Austauschlemma ist also

{w1 , . . . , wm−1 , wm , vm+1 , . . . , vn }

eine Basis von V .

4.2.8 Alle Basen haben gleich viele Elemente


Satz 4.2.3. Je zwei Basen eines (endlich erzeugten) Vektorraums V habe die gleiche
Anzahl von Elementen (=Kardinalität).
Beweis. V sei ein endlich erzeugbarer Vektorraum. Dann existieren Basen mit endlich
vielen Elementen. Angenommen B = (v1 , . . . , vn ), B 0 = (w1 , . . . , wm ) sind Basen
mit m < n. Insbesondere ist B 0 dann linear unabhängig und nach Austauschsatz von
Steinitz gibt es n − m ≥ 1 Vektoren in B, o.B.d.A. vm+1 , . . . , vn , sodass

{w1 , . . . , wm , vm+1 , . . . , vn }

eine Basis, also ein minimales Erzeugendensystem von V ist, was ein Widerspruch
dazu ist, dass B 0 ein minimales Erzeugendensystem, also eine Basis ist.

4.2.9 Dimension
Definition 4.7. Sei V ein K-Vektorraum, dann definiere
(
n, falls V eine Basis mit n Elementen besitzt
dimK (V ) =
∞, falls V keine endliche Basis besitzt

Proposition 4.2.2. Sei V ein K-Vektorraum und w1 , . . . , wr Vektoren aus V . Sei r >
dimK (V ), dann ist (w1 , . . . , wr ) linear abhängig.
Beweis. Sei B = {v1 , . . . , vn } eine Basis von V . Angenommen (w1 , . . . , wr ) (n <
r) sei linear unabhängig, dann ist auch (w1 , . . . , wn ) linear unabhängig. Nach dem
Ausstauschsatz von Steinitz kann man die Basis B also komplett austauschen, d.h.
(w1 , . . . , wn ) ist Basis und damit maximal linear unabhängig, was ein Widerspruch
zur Annahme ist.

4.2.10 Beispiele
• dimK K n = n
• dimR C = 2, denn (1, i) ist eine Basis des R-Vektorraums C.

• dimQ R = ∞

47
4.2.11 Dimension von Unterräumen
Proposition 4.2.3. Sei W ein Unterraum von V .
(i) Es gilt dim W ≤ dim V .
(ii) Aus dim W = dimV folgt W = V .
Beweis.
(i) Jede linear unabhängige Menge von Vektoren in V hat höchstens dim V viele Ele-
mente. Jede linear unabhängige Menge in W , insbesondere jede Basis, ist natürlich
auch eine linear unabhängige Menge in V , hat also höchstens dim V Elemente. Also
dim W ≤ dim V .
(ii) Angenommen dim W = dim V , aber W ( V .
Sei B Basis von W und v ∈ V \W , d.h. v 6∈ hBi. B ∪{v} wäre dann linear unabhängig
in V , hätte aber mehr Elemente als dim W = dim V , Widerspruch.

4.3 Unendlichdimensionale Vektorräume


4.3.1 Beispiele
• Eine andere Sichtweise auf die Menge der Polynome über einem Körper K ist
die Betrachtung der Polynomkoeffizienten, angeordnet in einer unendlichen Fol-
ge, in der fast alle Folgenglieder 0 sind:
K[x] ∼
= {(a0 , a1 , . . . , an , 0, 0, . . .) | ∃ n ∈ N : a0 , . . . , an ∈ K, ak = 0 ∀ k > n}
Man definiert dann 1 := (1, 0, 0, . . .), x := (0, 1, 0, 0, . . .), x2 := (0, 0, 1, 0, 0, . . .)
usw. Die Menge dieser Vektoren ist die Standardeinheitsbasis des K (N) .
Diese Sichtweise ist auch verträglich mit der Multiplikation im Polynomring,
wie man leicht nachrechnen kann.
Insgesamt ist also K[x] ∼= K (N) , wobei K (N) der Vektorraum der unendlichen
Folgen mit fast allen Folgengliedern = 0 ist.
• Die Menge der unendlichen Folgen über einem Körper K
K N = {(a0 , a1 , . . . , an , . . .) | ai ∈∈ ∀ i ∈ N}
ist ebenfalls ein Vektorraum. Die Operationen werden auch hier komponenten-
weise definiert.
B = ((1, 0, 0, . . .), (0, 1, 0, . . .), . . .)
ist keine Basis von K N , weil zum Beispiel (1, 1, 1, . . .) nicht als endliche Linear-
kombination von Vektoren aus geschrieben werden kann. B kann diesen Vektor
also nicht erzeugen.

4.3.2 Halbordnungen
Definition 4.8. Sei M eine Menge. Eine Relation R ⊆ M × M heißt Halbordnung
auf M , wenn gilt
(i) R ist reflexiv: mRm ∀ m ∈ M ,
(ii) R ist antisymmetrisch: ∀ m, n ∈ M : mRn ∧ nRm ⇒ m = n und
(iii) R ist transitiv: ∀ m, n, o ∈ M : mRn ∧ nRo ⇒ mRo.

48
4.3.3 Beispiele
• „≤“ ist auf Z eine Halbordnung.
• Sei

M = P({1, 2, 3}) = {∅, {0} , {1} , {2} , {3} , {1, 2} , {1, 3} , {2, 3} , {1, 2, 3}}

Die Inklusion „⊆“ ist eine Halbordnung auf jeder Menge von Mengen:
(i) A ⊆ A X
(ii) A ⊆ B ∧ B ⊆ A ⇒ A = B X
(iii) A ⊆ B ∧ B ⊆ C ⇒ A ⊆ C X

4.3.4 Ketten
Definition 4.9. Sei M eine Menge mit einer Halbordnung R.
(a) K ⊆ M heißt Kette, falls gilt: a, b ∈ K ⇒ aRb ∨ bRa.
(b) Eine Kette heißt induktiv, falls ein m ∈ M existiert, sodass kRm ∀k ∈ K
(m ist obere Schranke von K).
(c) Ein Element m0 ∈ M heißt maximal in M , falls gilt:
Ist m0 Rm für ein m ∈ M , dann folgt m = m0 .

4.3.5 Lemma von Zorn


Satz 4.3.1. Sei M 6= ∅ und R eine Halbordnung auf M . Ist jede Kette K ⊆ M
induktiv, so gibt es wenigstens ein maximales Element m ∈ M .
(Das Lemma von Zorn ist äquivalent zum Auswahlaxiom.)

4.3.6 Basisexistenzsatz für beliebige Vektorräume


Satz 4.3.2. Sei V ein L-Vektorraum. Dann gibt es eine maximal linear unabhängige
Teilmenge B in V , also eine Basis.
Beweis. Sei
M := {B | B ⊆ V, B ist linear unabhängig}
M 6= ∅, weil ∅ linear unabhängig ist und ∅ ⊆ V , und damit ∅ ∈ M .
Ordne M bezüglich der Inklusion. Sei K ⊆ M eine Kette in M . Es wird gezeigt, dass
K induktiv ist.
Setze dazu [
B0 = B
B∈K

dann gilt B ⊆ B0 für alle B ∈ K. B0 ∈ M , wenn B0 linear unabhängig ist: Sei


n
X
λi · bi = 0
i=1

für λi ∈ L, bi ∈ B0 . Dann gibt es Bi ∈ K mit bi ∈ Bi für alle i = 1, . . . , n. Nach


Definition der Kette sind die Bi so geordnet, dass es ein j ∈ {1, . . . , n} gibt, sodass

49
Bi ⊆ Bj , also bi ∈ Bj für alle i. Bj ∈ M ist aber linear unabhängig, und damit folgt
aus der Gleichung:
λ1 = λ2 = . . . = λn = 0
Es gibt also ein B0 ∈ M mit B ⊆ B0 für alle B ∈ K, also ist K induktiv.
Damit ist gezeigt, dass jede Kette aus M induktiv ist. Nach dem Lemma von Zorn gibt
es also ein maximales Element in M , d.h. eine maximal linear unabhängige Menge von
Vektoren in V , also eine Basis.

4.4 Matrizen
4.4.1 Definition
Definition 4.10. Eine m × n-Matrix über K ist eine Anordnung von n · m Elementen
aus K in einem rechteckigen Schema:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
 .. .. .. .. 
 . . . . 
am1 am2 ... amn
Die Elemente aij sind die Koeffizienten des Matrix.
Die waagerecht geschriebenen Tupel(ai1 , ai2
, . . . , ain ) heißen Zeilen(-vektoren).
a1j
 a2j 
Die senkrecht geschriebenen Tupen  .  heißen Spalten(-vektoren).
 
 .. 
amn
Die Menge aller m × n-Matrizen über K bezeichnet man mit MK (m, n), M (m, n, K)
oder K m×n .

4.4.2 Zeilenstufenform
Definition 4.11. Eine Matrix ist in Zeilenstufenform , wenn sie so aussieht:
 
0  ∗ ··· ···
 0 0 ···  ∗ ··· * 
 
 .. .. . . .. 
 . .
 . 0 0 . * ∗ 

 0 0 ··· 0 0 · · ·  ∗ · · · 
 
 0 0 ··· 0 0 ··· 0 ···  
0 0
Beschreibung:
• Die  sind alle 6= 0.
• Die Elemente rechts von den  sind beliebig (∗).
• Unter der Stufenlinie stehen nur 0-Elemente.
Formaler: A ∈ K m×n ist in Zeilenstufenform, wenn
• Es gibt ein r ∈ {0, 1, . . . , n}, sodass alle Zeilen mit Index i > r nur Nullen
enthalten.
• Es existieren j1 , . . . , jr mit 0 < j1 < j2 < . . . < jr ≤ n und ji := min {j | aij 6= 0}.

50
4.4.3 Kriterium für lineare Unabhängigkeit
Lemma 4.2. Ist A in Zeilenstufenform und sind a1 , . . . , ar die Zeilen ungleich o in A,
dann sind diese Zeilen linear unabhängig.
Beweis. Sei
o = λ1 · a1 + . . . + λr · ar
mit λi ∈ K für alle 1 ≤ i ≤ r.
Dies „ist“ (also: kann interpretiert werden als) ein System von n homogenen linearen
Gleichungen.
Betrachte j1 dieser Gleichungen:

0 = λ1 · a1,j1 + . . . + λr · ar,j1

Wegen aij = 0 für alle i > 1 (alle Einträge unter dem ersten Element 6= 0 in der ersten
Zeile sind 0) ist das

0 = λ1 · a1,j1 + λ2 · 0 + . . . + λr · 0 = λ1 · a1,j1 ⇒ λ1 = 0
|{z}
6=0

Sei aus den Gleichungen j1 , . . . , jk−1 gezeigt, dass λ1 = . . . = λk−1 = 0 für ein
k, 1 < k ≤ n. Wenn jk ≤ jr , dann betrachte die jk -te Gleichung des Systems

0 = λ1 · a1,jk + . . . + λr · ar,jk

Wegen λ1 = . . . = λk−1 = 0, und aij = 0 für alle i > k folgt

0 = 0·a1,jk +0·a2,jk +. . .+0·ak−1,jk +λk ·ak,jk +λk+1 ·0+·λr ·0 = λk ·ak,jk ⇒ λk = 0


| {z }
6=0

Induktiv folgt also λ1 = λ2 = . . . = λr = 0, d.h. a1 , . . . , ar können nur trivial zum


Nullvektor kombiniert werden, sie sind also linear unabhängig.

4.4.4 Zeilenraum
Definition 4.12. Der Zeilenraum ZR(A) einer Matrix A ∈ K m×n ist das Erzeugnis
der Zeilen von A, d.h. ZR = ha1 , . . . , an i, wobei ai die i-te Zeile von A ist.

4.4.5 Elementare Zeilenumformungen


Definition 4.13. Sei A eine Matrix des K m×n .

• Typ I: Die i-te Zeile wird mit einem Skalar multipliziert.


   
∗ ∗ ... ∗ ∗ ∗ ∗ ... ∗ ∗
 .. .. . . . ..  .. .. .. .. .. 
. ..

 .
 . .  
 λ6=0  . . . . . 

A=  − − a i − − 
 → 
 − − λ · ai − −   = AI
 . . . . . .. .. .. .. .. 
 .. .. . . .. .. 
 
 . . . . . 
∗ ∗ ... ∗ ∗ ∗ ∗ ... ∗ ∗

51
• Typ II: Zeile i und Zeile j werden addiert.
   
∗ ∗ ... ∗ ∗ ∗ ∗ ... ∗ ∗
 − − ai − −   − − ai − − 
   
A =  ... .. . . .
. ..
..  →  .. .. .. .. ..
 = AII
 
 . . 

 .
 . . . .
 − − aj − −   − − aj + ai − − 
∗ ∗ ... ∗ ∗ ∗ ∗ ... ∗ ∗

4.4.6 Elementare Zeilenumformungen sind zeilenraumerhaltend


Lemma 4.3. Für die Zeilenumformungen A → AI und A → AII gilt:

ZR(A) = ZR(AI ) = ZR(AII )

Beweis. Sei v ∈ ZR(A), d.h. es existieren µ1 , . . . , µm mit

v = µ1 · a1 + . . . + µi · ai + . . . + µm · am
µi
= µ1 · a1 + . . . + · (λ · ai ) + . . . + µm · am ∈ ZR(AI )
λ
bzw.

v = µ1 · a1 + . . . + µi · ai + . . . + µj · aj + . . . + µm · am
= µ1 · a1 + . . . + (µi − µj ) · ai + . . . + µj · (aj + ai ) + . . . + µm · am ∈ ZR(AII )

Die anderen Richtungen sind ähnlich einfach zu zeigen.

4.4.7 Weitere Zeilenumformungen


• Typ III: Addition des λ-fachen einer Zeile i zu einer Zeile j.
   
∗ ∗ ... ∗ ∗ ∗ ∗ ... ∗ ∗
 − − ai − −   − − ai − − 
   
 .. .
. . . .
. .
.  λ6=0  .. .
. . .. .. ..
A= . →  .  = AIII

 . . . . 
  . . .
 − − aj − −   − − aj + λ · ai − − 
∗ ∗ ... ∗ ∗ ∗ ∗ ... ∗ ∗

Typ III als Kombination von Typ I und II:


   
∗ ... ∗ ∗ ... ∗
 − ai −   − λ · ai − 
   
 .. . . .
. I  .
. .. ..  →II
A= . →

 . .  
 .
 . . 

 − aj −   − aj − 
∗ ... ∗ ∗ ... ∗
   
∗ ... ∗ ∗ ... ∗
 − λ · ai −   − ai − 
   
 .. . .. . I  .
..  →  ..
 . .. ..  = A
 . .  III
   
 − aj + λ · ai −   − aj + λ · ai − 
∗ ... ∗ ∗ ... ∗

Also ist ZR(A) = ZR(AIII ).

52
• Typ IV: Vertauschen von zwei Zeilen.
   
∗ ∗ ... ∗ ∗ ∗ ∗ ... ∗ ∗
 − − ai − −   − − aj − − 
   
 .. .
.. . .
. . .. .
..  →  .. .. . . .. ..
A= .  = AIV
 
 

 . . . . .
 − − aj − −   − − ai − − 
∗ ∗ ... ∗ ∗ ∗ ∗ ... ∗ ∗

Typ III als Kombination von Typ I, II und III:


   
∗ ... ∗ ∗ ... ∗
 − ai −   − ai − 
   
 .. . . .
. III  .
. . . ..  →II
A= . →

 . .  
 .
 . . 
 − aj −   − aj − ai − 
∗ ... ∗ ∗ ... ∗
   
∗ ... ∗ ∗ ... ∗
 − ai + (aj − ai ) = aj −   − aj − 
   
 .. . .. . III  .
..  →  .. . .. .. I
→

 . .
   
 − aj − ai −   − (aj − ai ) − aj = −ai − 
∗ ... ∗ ∗ ... ∗
 
∗ ... ∗
 − aj − 
 
 .. . . ..  = A
 .
 . . 
 IV
 − ai − 
∗ ... ∗

Also folgt: ZR(A) = ZR(AIV )

4.4.8 Jede Matrix kann in Zeilenstufenform umgeformt werden


Satz 4.4.1. Sei A eine (m × n)-Matrix mit Zeilen a1 , . . . , am .
Mit elementaren Zeilenumformungen lässt sich A in eine Matrix A0 in Zeilenstufen-
form überführen.
Die Zeilen von A0 , die keine Nullzeilen sind, bilden eine Basis von ZR(A).
Beweis. Es bleibt zu zeigen, dass elementare Zeilenumformungen „stark genug“ sind,
um Zeilenstufenform zu erzeugen.
Die Idee dazu ist die systematische Erzeugung von 0-Einträgen.
Wenn A die Nullmatrix ist, dann ist nichts zu zeigen.
1. Ansonsten gibt es eine Spalte, die einen Eintrag ungleich 0 hat. Betrachte die
erste dieser Spalten, j1 , und tausche die Zeilen so, dass in der ersten Zeile in der
betrachteten Spalte das Element a1,j1 6= 0 steht.
2. Mit Umformungen des Typs III addiert man Vielfache der ersten Zeile zu den
anderen Zeilen, dass die Spalte j1 bis auf den Eintrag a1,j1 nur 0 enthält.
3. Sei die Matrix bis zu einer Zeile ak−1 bereits in Zeilenstufenform, wobei die
letzte betrachtete Spalte jk−1 war. Ist ak−1 letzte Zeile oder jk−1 letzte Spalte,
ist man fertig. Man ist außerdem fertig, wenn alle Spalten rechts von jk−1 und

53
unterhalb von ak−1 nur 0 enthalten. Ansonsten betrachte die erste Spalte, ge-
nannt jk , die einen Eintrag ungleich 0 unterhalb von Zeile ak−1 hat. Tausche die
Zeile mit diesem Eintrag so, dass sie danach Zeile ak ist.
4. Mit Umformungen des Typs III addiert man Vielfache von ak zu den anderen
Zeilen unterhalb von ak , so dass die Spalte jk unterhalb von ak nur 0-Einträge
enthält.

4.4.9 Beispiele
Betrachte folgende Matrizen aus dem R3 :

     
2 3 4 2 3 4 2 3 4
a ←a3 −2a1 a ←a3 +6a2
 0 1 2  3 −→  0 1 2  3 −→  0 1 2 
4 0 8 0 −6 0 0 0 12


   
1 1 1 1 1 1
 4 3 2  a3 ←a
−→3 +a1
 4 3 2  a3 ←a2 −a3
−→
3 2 1 4 3 2
   
1 1 1 1 1 1
 4 3 2  a2 ←a2 −4a3
−→  0 −1 −2 
0 0 0 0 0 0

4.5 Summen und direkte Summen


4.5.1 Summe von Untervektorräumen
Definition 4.14. Sind U1 , U2 Unterräume eines K-Vektorraums V , dann heißt

U1 + U2 := {x + y | x ∈ U1 , y ∈ U2 }

die Summe von U1 und U2 .


Bemerkung. U1 + U2 ist ein Untervektorraum von V .
Beweis. Nachweis der Untervektorraumkriteriums
U1 o ∈ U1 , o ∈ U2 , also o = o + o ∈ (U1 + U2 )
U2 Seien x, x0 ∈ U1 , y, y 0 ∈ U2 , dann sind (x + y), (x0 + y 0 ) ∈ (U1 + U2 ) und

(x + y) + (x0 + y 0 ) = (x + x0 ) + (y + y 0 ) ∈ (U1 + U2 )
| {z } | {z }
∈U1 ∈U2

U2 Ebenso ist für λ ∈ K

λ · (x + y) = |{z}
λ · x + λ · y ∈ (U1 + U2 )
|{z}
∈U1 ∈U2

54
4.5.2 Beispiele
• U + {o} = U
• U +U =U

• Allgemeiner: U + U 0 = U , wenn U 0 Untervektorraum von U ist.

4.5.3 Summe und Erzeugnis


Korollar. Für zwei Unterräume U1 , U2 gilt: hU1 , U2 i = U1 + U2 .
Beweis. Sei zunächst s ∈ U1 + U2 , d.h. es gibt x ∈ U1 , y ∈ U2 mit x + y = s.
Trivialerweise ist dann s = 1 · x + 1 · y ∈ hU1 , U2 i, also gilt U1 + U2 ⊆ hU1 , U2 i.
Sei andererseits u ∈ hU1 , U2 i, d.h. es gibt Vektoren v1 , . . . , vs ∈ U1 , ws+1 , . . . , ws+t ∈
U2 und Skalare λ1 , . . . , λs , λs+1 , . . . , λs+t ∈ K, sodass gilt

u = λ1 · v1 + . . . + λs · vs + λs+1 · ws+1 + . . . + λs+t · ws+t


| {z } | {z }
∈U1 ∈U2

also eben auch u ∈ (U1 + U2 ).

4.5.4 Dimensionsformel
Satz 4.5.1. Sind U1 und U2 Untervektorräume von V , dann gilt

dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 )

Beweis. Sei B0 = {v1 , . . . , vr } eine Basis von U1 ∩ U2 , d.h. dim(U1 ∩ U2 ) = r. Nach


dem Basisergänzungssatz kann man B0 einerseits zu

B1 = {v1 , . . . , vr , w1 , . . . , ws }

als eine Basis von U1 (d.h. dim U1 = r + s), und andererseits zu

B2 = {v1 , . . . , vr , z1 , . . . , zt }

als eine Basis von U2 (d.h. dim U2 = r + t) ergänzen.


Kann man nun zeigen, dass B3 = {v1 , . . . , vr , w1 , . . . , ws , z1 , . . . , zt } eine Basis von
U1 + U2 ist, dann hat man gezeigt

dim(U1 + U2 ) = r + s + t = (r + s) + (r + t) − r = dim U1 + dim U2 − dim(U1 ∩ U2 )

Dass B3 den Raum U1 + U2 erzeugt, ist klar. Übrig bleibt der Beweis der linearen
Unabhängigkeit:
Sei also für gesuchte α1 , . . . , αr , β1 , . . . , βs , γ1 , . . . , γt ∈ K:

o = α1 · v1 + . . . + αr · vr + β1 · w1 + . . . + βs · ws + γ1 · z1 + . . . + γt · zt ⇒
−α1 · v1 − . . . − αr · vr − β1 · w1 − . . . − βs · ws = γ1 · z1 + . . . + γt · zt

Das heißt aber

−α1 · v1 − . . . − αr · vr − β1 · w1 − . . . − βs · ws = γ1 · z1 + . . . + γt · zt ∈ U1

55
Gleichzeitig gilt auch
γ1 · z1 + . . . + γt · zt ∈ U2
also
γ1 · z1 + . . . + γt · zt ∈ (U1 ∩ U2 )
Dieser Vektor kann somit als Linearkombination von B0 dargestellt werden, d.h. es
gibt λ1 , . . . , λr mit

γ1 · z1 + . . . + γt · zt = λ1 · v1 + . . . + λr · vr ⇒
o = λ1 · v1 + . . . + λr · vr − γ1 · z1 − . . . − γt · zt

Da {v1 , . . . , vr , z1 , . . . , zt } = B2 Basis von U2 ist, also insbesondere linear unabhän-


gig ist, folgt
λ1 = . . . = λr = −γ1 = . . . = −γt = 0
also γ1 = . . . = γt = 0. Aus der ursprünglichen Gleichung folgt damit:

o = α1 · v1 + . . . + αr · vr + β1 · w1 + . . . + βs · ws

Es ist aber {v1 , . . . , vr , w1 , . . . , ws } = B1 eine Basis von B1 , insbesondere ist die


Menge linear unabhängig, also folgt

α1 = . . . = αr = β1 = . . . = βs = 0

D.h. alle Koeffizienten αi , βi , γi der Ausgangsgleichung sind 0, woraus die lineare


Unabhängigkeit von {v1 , . . . , vr , w1 , . . . , ws , z1 , . . . , zt } = B3 folgt.

4.5.5 Direkte Summe


Definition 4.15. Ein Vektorraum heißt direkte Summe von U1 und U2 , wenn
• V = U1 + U2
• U1 ∩ U2 = {o}
Man schreibt dann: V = U1 ⊕ U2

4.5.6 Existenz von komplementären Unterräumen


Proposition 4.5.1. Ist U ein Untervektorraum von V , dann gibt es einen Unterraum
U 0 mit U ⊕ U 0 = V .
Beweis. Sei (v1 , . . . , vs ) = B eine Basis von U . B kann durch B 0 = (w1 , . . . , wt ) zu
einer Basis (v1 , . . . , vs , w1 , . . . , wt ) von V ergänzt werden.
Setze U 0 = hB 0 i. Weil B ∪ B 0 Basis von V ist, erzeugt B ∪ B 0 ⊆ (U1 + U2 ) bestimmt
V , d.h. aber U1 + U2 = hU1 , U2 i = V . Weil B ∪ B 0 linear unabhängig ist, folgt aus

v ∈ hBi = U ∧ v ∈ hB 0 i = U 0

dass v = o gelten muss, d.h. U ∩ U 0 = {o}.

4.5.7 Beispiel
R3 = he1 i + he2 i + he3 i

56
5 Lineare Abbildungen
5.1 Definitionen
5.1.1 Lineare Abbildungen
Definition 5.1. Seien V, W Vektorräume über K. Eine Abbildung F : V → W ist
eine lineare Abbildung, wenn gilt
L1 F (v1 + v2 ) = F (v1 ) + F (v2 ) ∀ v1 , v2 ∈ V - Additivität

L2 F (λ · v) = λ · F (v) ∀ λ ∈ K, v ∈ V - Homogenität
Lineare Abbildungen sind also Homomorphismen von Vektorräumen.
Bemerkung. Zum Beweis der Linearität genügt zu zeigen:

F (λ1 · v1 + λ2 · v2 ) = λ1 · F (v1 ) + λ2 · F (v2 )

5.1.2 Beispiele
1.
Achtung.

f : R→R
f (x) = a · x + b

f ist affin linear, linear in unserem Sinne nur für b = 0.


2. Sei A ∈ K m×n eine Matrix über K:
 
a11 ... a1n
 .. .. .. 
A= . . . 
am1 ... amn

Diese Matrix definiert eine lineare Abbildung durch

A : Kn → Km
     
x1 ha1 , xi a11 · x1 + a12 · x2 + . . . + a1n · xn
x =  ...  7→  ..
=
..
     
. . 
xn ham , xi am1 · x1 + am2 · x2 + . . . + amn · xn

Man zeigt leicht, dass A : K n → K m linear ist.


3. Drehungen der Ebene um o

57
Eine Drehung um einen Winkel α ist eine Abbildung

ρ α : R2 → R2
ρα (x, y) 7→ (x · cos α − y · sin α, x · sin α + y · cos α)

ρα ist (bis auf Transposition) die Abbildung zur Matrix


 
cos α − sin α
A=
sin α cos α

4. Differentialoperator

D : R[x] → R[x]
n
X n
X
ak · xk 7→ k · ak · xk−1
k=0 k=0

Man zeigt leicht: D ist linear (Ableitungsregeln).

5.1.3 Lineare Abbildungen sind Vektorraumhomomorphismen


Definition 5.2. Sei F : V → W eine lineare Abbildung, also ein Vektorraumhomo-
morphismus.
• Wenn F bijektiv ist, dann ist F ein Isomorphismus.
• Wenn V = W , dann ist F ein Endomorphismus.
• Wenn V = W und F bijektiv, dann ist F Automorphismus.

5.1.4 Eigenschaften von linearen Abbildungen


Bemerkung. Es gilt
• F (o) = o
• F (λ1 · v1 + . . . + λn · vn ) = λ1 · F (v1 ) + . . . + λn · F (vn )
• Ist U ein Unterraum von V , dann ist F (U ) ein Unterraum von W (U1 folgt aus
der ersten Bemerkung, U2 und U3 aus der zweiten).

58
• Sind v1 , . . . , vn linear abhängig in V , dann sind F (v1 ), . . . , F (vn ) linear ab-
hängig in W . Denn es gibt eine nicht-triviale Linearkombination von o durch
v1 , . . . , vn . F auf diese Linearkombination angewandt ist einerseits, nach der
ersten Bermerkung der Nullvektor in W , andererseits aber auch, nach der zwei-
ten Bemerkung, eine Linearkombination von Vektoren F (v1 ), . . . , F (vn ).
• Sei U ein Unterraum von V , dann gilt: dim(F (U )) ≤ dim(U ). Denn jede Fa-
milie von mehr als dim(U ) Vektoren aus U ist linear abhängig und nach der
letzten Bermerkung ist dann auch jede Familie von mehr als dim(U ) Vektoren
aus F (U ) linear abhängig.

5.1.5 Komposition linearer Abbildungen sind linear


Proposition 5.1.1. Seien U, V, W K-Vektorräume, G : V → W, F : U → V lineare
Abbildungen, dann ist auch (G ◦ F ) : U → W linear.
Beweis. Es sind Additivität und Homgenität zu zeigen.
• Seien u1 , u2 ∈ U , dann gilt
(G ◦ F )(u1 + u2 ) = G(F (u1 + u2 )) = G(F (u1 ) + F (u2 ))
= G(F (u1 )) + G(F (u2 )) = (G ◦ F )(u1 ) + (G ◦ F )(u2 )

• Sei u ∈ U und λ ∈ K, dann gilt


(G ◦ F )(λ · u) = G(F (λ · u)) = G(λ · F (u))
= λ · G(F (u)) = λ · (G · F )(u)

5.1.6 Vektorräume der Homomorphismen


Definition. Man bezeichnet die Menge aller Homomorphismen zwischen zwei K-
Vektorräumen V und W als Hom(V, W ), also
Hom(V, W ) = {F : V → W, F linear}
Bemerkung. Hom(V, W ) ist ein Untervektorräum von Abb(V, W ) = W V .
Beweis. Die Unterraumkriterien müssen erfüllt sein:
U1 O : v 7→ o - die Nullabbildung - ist linear:
Seien v1 , v2 ∈ V , λ1 , λ2 ∈ K.
O(λ1 · v1 + λ2 · v2 ) = o = λ1 · o + λ2 · o = λ1 · O(v1 ) + λ2 · O(v2 )

U2 Abgeschlossenheit gegenüber der Addition, also (F + G) ∈ Hom für F, G ∈


Hom
Seien v1 , v2 ∈ V , λ1 , λ2 ∈ K.
(F + G)(λ1 · v1 + λ2 · v2 ) = F (λ1 · v1 + λ2 · v2 ) + G(λ1 · v1 + λ2 · v2 )
= λ1 · F (v1 ) + λ2 · F (v2 ) + λ1 · G(v1 ) + λ2 · G(v2 )
= λ1 · (F (v1 ) + G(v1 )) + λ2 · (F (v2 ) + G(v2 ))
= λ1 · (F + G)(v1 ) + λ2 · (F + G)(v2 )

59
U3 Abgeschlossenheit gegenüber der Skalarmultiplikation, also (λ · F ) ∈ Hom für
F ∈ Hom, λ ∈ K
Seien v1 , v2 ∈ V , λ1 , λ2 ∈ K.

(λ · F )(λ1 · v1 + λ2 · v2 ) = λ · F (λ1 · v1 + λ2 · v2 )
= λ · (λ1 · F (v1 ) + λ2 · F (v2 ))
= λ · λ1 · F (v1 ) + λ · λ2 · F (v2 )
= λ1 · (λ · F (v1 )) + λ2 · (λ · F (v2 ))
= λ1 · (λ · F )(v1 ) + λ2 · (λ · F )(v2 )

Also ist Hom(V, W ) ein Unterraum von W V .

5.1.7 Menge der Endomorphismen


Definition. Die Menge der Endomorphismen eines Vektorräums bezeichnet man mit
End(V ), also
End(V ) := Hom(V, V )

Satz 5.1.1. End(V ) mit + (von Hom) und ◦ (Komposition) ist ein Ring.
Beweis. Es sind die Ringaxiome nachzuweisen
R1 (End(V ), +) ist eine abelsche Gruppe, weil (End(V ), +, ·) ein K-Vektorraum
ist.

R2 Die Komposition ist immer assoziativ; sie ist auch eine Operation ◦ : End(V ) ×
End(V ) → End(V ), weil die Verknüpfüng zweier Endomorphismen F, G ∈
End(V ) wieder ein Endomorphismus ist.
R3 Distributivgesetze:
Seien F, G, H ∈ End(V ), dann gilt für alle v ∈ V :

(F ◦ (G + H)) (v) = F ((G + H)(v)) = F (G(v) + H(v))


= F (G(v)) + F (H(v)) = (F ◦ G)(v) + (F ◦ H)(v)

und

((F + G) ◦ H) (v) = (F + G)(H(v)) = F (H(v)) + G(H(v))


= (F ◦ H)(v) + (G ◦ H)(v)

• (End(V ), +, ◦) hat sogar ein Einselement: die identische Abbildung idV .

5.2 Bild, Faser, Kern


5.2.1 Definitionen
Definition 5.3. Für F : V → W linear, ist
• das Bild: im F = F (V ) = {w ∈ W | ∃ v ∈ V : F (v) = w} ⊆ W

60
• der Kern: ker F = F −1 (o) = {v ∈ V | F (v) = o} ⊆ V
Die Faset von F über w ∈ im F ist

F −1 (w) = {v ∈ V | F (v) = w} ⊆ V

Bemerkung. Sei F : V → W ist linear.


(a) im F ⊆ W ist ein Untervektorraum von W .
(b) ker F ⊆ V ist ein Untervektorraum von V .
(c) F surjektiv genau dann, wenn im F = W (per Definition).
(d) F injektiv genau dann, wenn ker F = {o}.
(e) F injektiv, dann gilt:
Sind v1 , . . . , vn linear unabhängig in V , dann sind F (v1 ), . . . , F (vn ) linear un-
abhängig von W .
Beweis. Sei F : V → W ist linear.
(a) Es sind die Untervektorraumaxiome nachzuweisen:
U1 F (o) = o, d.h. o ∈ im F X
U2 w1 , w2 ∈ im F ⇒ ∃ v1 , v2 ∈ V : F (v1 ) = w1 , F (v2 ) = w2 , und dann

F (v1 + v2 ) = F (v1 ) + F (v2 ) = w1 + w2

also w1 + w2 ∈ im F .
U3 λ ∈ K, w ∈ im F ⇒ ∃, v ∈ V : F (v) = w, und dann

F (λ · v) = λ · F (v) = λ · w

also λ · w ∈ im F .
(b) Es sind die Untervektorraumaxiome nachzuweisen:
U1 F (o) = o, d.h. o ∈ ker F X
U2 v1 , v2 ∈ ker F , d.h. F (v1 ) = F (v2 ) = o, also auch

F (v1 + v2 ) = F (v1 ) + F (v2 ) = o + o = o

U3 λ ∈ K, v ∈ ker F , d.h. F (v) = o, und auch

F (λ · v) = λ · F (v) = λ · o = o

(d) Wenn F injektiv, dann gilt natürlich auch ker F = F −1 (o) = {o}.
Sei andererseits ker F = F −1 (o) = {o}. Wenn v 6= v 0 , dann ist v − v 0 6= o, also

F (v − v 0 ) 6= o ⇔
F (v) − F (v 0 ) 6= o ⇔
F (v) 6= F (v 0 )

also ist F injektiv.

61
(e) Betrachte

λ1 · F (v1 ) + . . . + λk · F (vk ) = o ⇔
F (λ1 · v1 + . . . + λk · vk ) = o

Aus der Injektivität folgt ker F = {o}, also

λ1 · v1 + . . . + λk · vk = o

Aus der linearen Unabhängigkeit folgt dann

λ1 = . . . = λk = 0

5.2.2 Rang einer linearen Abbildung


Definition 5.4. Wenn F : V → W eine lineare Abbildung ist, dann ist der Rang von
F definiert als rangF = rkF = dim(im F ).

5.2.3 Rang einer Matrix


Proposition 5.2.1. Sei A ∈ K m×n eine m × n Matrix, dann ist der Rang der linearen
Abbildung A : K n → K m die Dimension des von den Spalten a1 , . . . , an von A
erzeugten Untervektorraums von K m .


Beweis. Es gilt sogar: im A = a1 , . . . , an :

⊇ ai ∈ im

1A, weil nA·e
i 1
i = a . Und weil im F ein Vektorraum ist, ist mit a , . . . , a
n

auch a , . . . , a in im F enthalten.
⊆ Sei y ∈ im A, d.h. es existiert ein x ∈ K n mit

y = A · x = a1 · x1 + a2 · x2 + . . . + an · xn
| {z }
∈ha1 ,...,an i

5.2.4 Faserung eines Vektorraums


Bemerkung. Sei F : V → W linear.
Sei w ∈ im F , d.h. es existiert ein v0 ∈ V mit F (v0 ) = w. Die Faser über w ist dann

F −1 (w) = v0 + ker F = {v0 + v | v ∈ ker F }

Beweis. Zu zeigen ist:

{v ∈ V | F (v) = w} = {v0 + v | v ∈ ker F }

⊇ Sei v ∈ ker F , dann folgt

F (v0 + v) = F (v0 ) + F (v) = w + o = w

also v0 + v ∈ F −1 (w).

62
⊆ Sei u ∈ F −1 (w), d.h. F (u) = w = F (v0 ) und damit F (u) − F (v0 ) = F (u −
v0 ) = o. Damit ist aber u − v0 ∈ ker F und u = v0 + (u − v0 ), also u ∈
| {z }
∈ker F
v0 + ker F .

5.2.5 Affine Teilräume


Definition 5.5. Eine Teilmenge X eines Vektorraums V ist ein affiner Teilraum (oder
auch: affiner Unterraum), falls es einen Unterraum U von V gibt, sodass X = v + U
für ein v ∈ V .
Bemerkung. Wir haben gesehen: Die Fasern einer linearen Abbildung F : V → W
sind affine Teilräume von V .
Es gilt auch: Jeder affine Teilraum ist eine Faser einer linearen Abbildung.

5.2.6 Beispiel
Im R und R3 gibt es als affine Unterräume Punkte, Geraden, Ebenen. Zudem ist auch
2

R3 selbst ein affiner Unterraum.


Sei F : R2 → R3 die Projektion parallel zur x-Achse auf die Gerade x = y.

   
x y
Diese Abbildung ist linear: F = , sie wird durch die Matrix
y y
 
0 1
0 1

realisiert.    
x p
Der Kern von F ist ker F = ∈ R2 . Die Faser eines Punktes ist
0 p
dann       
p x p
F −1 = | x ∈ R2 = + ker F
p p p

5.2.7 Charakterisierung von affinen Unterräumen


Proposition 5.2.2. Sei X = v + U ein affiner Unterraum von V . Wenn X = v 0 + U 0 ,
dann gilt
1. v ∈ X, v 0 ∈ X, und vor allem v − v 0 ∈ U ,

63
2. U = U 0
Tatsächlich gilt für jedes x ∈ X: X = x + U .

Beweis. Wenn X = v + U = v 0 + U 0 , dann gilt eben


1. v = v + o ∈ X und v 0 = v 0 + o ∈ X,
2. damit dann v = v 0 +u0 und v 0 = v+u für bestimmte u ∈ U, u0 ∈ U 0 , zusammen

v = (v + u) + u0 = v + u + u0 ⇔ o = u + u0 ⇔ u = −u0

Wegen u ∈ U ist auch −u = −(−u0 ) = u0 ∈ U , analog u ∈ U 0 , also insgesamt


U = U 0.
Schließlich folgt: v = v 0 + u für ein u ∈ U , also v − v 0 = u ∈ U .

6 Bildquellen
• http://de.wikipedia.org/wiki/Bild:Injektivit%C3%A4t_Mengenwolke.png
• http://de.wikipedia.org/wiki/Bild:Surjektivit%C3%A4t_Mengenwolke.png
• http://de.wikipedia.org/wiki/Bild:Bijektivit%C3%A4t_Mengenwolke.png

Alle weiteren Bilder erstellt mit GeoGebra und dem GIMP.

64

Das könnte Ihnen auch gefallen