Sie sind auf Seite 1von 164

Lineare Algebra 1

Wintersemester 2020/21

gelesen von
Prof. Dr. Anna Wienhard

geTEXt von
Markus Reinig, ...
Stand von 20. Juni 2023

1
Inhaltsverzeichnis

I Grundlagen 4
0 Aussagenlogik 4

1 Mengen 6

2 Abbildungen 10

3 Äquivalenzrelationen 17

II Vektorräume 20
4 Gruppen 20
4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2 Untergruppen und Homomorphismen . . . . . . . . . . . . . . . . . . . . 23

5 Körper 27
5.1 Unterkörper und Körperhomomorphismen . . . . . . . . . . . . . . . . . 30
5.2 Die Komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

6 Vektorräume 35
6.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.2 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.3 Erzeugendensystem, lineare Unabhängigkeit, Basen . . . . . . . . . . . . 39
6.4 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.5 Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

7 Matrizen & Lineare Gleichungssysteme 69


7.1 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.2 Matrizen und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 81
7.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 90

8 Determinanten 104
8.1 Alternierende Multilinearform . . . . . . . . . . . . . . . . . . . . . . . . 104
8.2 Determinanten von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.3 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

9 Eigenwerte und Eigenvektoren 121


9.1 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
9.2 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . 126

2
9.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . 128
9.4 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

10 Euklidische Vektorräume 137


10.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
10.2 Euklidische Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

3
Teil I
Grundlagen
0 Aussagenlogik
Eine Aussage ist ein feststehender Satz, dem genau einer der Wahrheitswerte „wahr“ oder
„falsch“ zugeordnet werden kann.
Wir können Aussagen auch verknüpfen: Negation (nicht, geschrieben: ¬), Konjunktion
(und, geschrieben: ∧), Disjunktion (oder, geschrieben: ∨), Entweder-Oder (geschrieben:
∨˙ oder ∨), Implikation (geschrieben: ⇒), Äquivalenz (geschrieben: ⇔).

Seien 𝐴 und 𝐵 Aussagen.

𝐴 ¬𝐴
Negation: w f
f w
𝐴 𝐵 𝐴∧𝐵
w w w
Konjunktion: w f f
f w f
f f f
𝐴 𝐵 𝐴∨𝐵
w w w
Disjunktion: w f w
f w w
f f f
𝐴 𝐵 entweder 𝐴 oder 𝐵
w w f
Entweder-Oder: w f w
f w w
f f f
𝐴 𝐵 𝐴⇒𝐵
w w w
Implikation: w f f
f w w
f f w
Wir sagen auch, dass 𝐴 eine hinreichende Bedingung für 𝐵 ist und dass 𝐵 eine
notwendige Bedingung für 𝐴 ist.

4
𝐴 𝐵 𝐴⇔𝐵
w w w
Äquivalenz: w f f
f w f
f f w

Bemerkung. 𝐴 ⇔ 𝐵 ist äquivalent zu (𝐴 ⇒ 𝐵) ∧ (𝐵 ⇒ 𝐴)

𝐴 𝐵 (𝐴 ⇒ 𝐵) ∧ (𝐵 ⇒ 𝐴)
w w w
w f f
f w f
f f w

Beweismethoden
Sätze sind in der Regel als Implikationen 𝐴 ⇒ 𝐵 formuliert
Voraussetzung Behauptung

Beweis: Begründen, warum diese Implikation wahr ist

1 Direkter Beweis 𝐴⇒𝐵

2 Beweis durch Kontraposition ¬𝐵 ⇒ ¬𝐴

3 Beweis durch Widerspruch ¬(𝐴 ∧ ¬𝐵)

Quantoren:
𝐴(𝑥) Aussage, die von einer Variablen 𝑥 abhängt
∃𝑥 : 𝐴(𝑥) es existiert (mindestens) ein 𝑥, so dass die Aussage 𝐴(𝑥) wahr ist.
∃!𝑥 : 𝐴(𝑥) es existiert genau ein 𝑥, so dass 𝐴(𝑥) wahr ist
∀𝑥 : 𝐴(𝑥) für alle 𝑥 ist die Aussage 𝐴(𝑥) wahr

Übung.

1 ¬(∃𝑥 : 𝐴(𝑥)) ist äquivalent zu ∀𝑥 : ¬𝐴(𝑥)

2 ¬(∀𝑥 : 𝐴(𝑥)) ist äquivalent zu ∃𝑥 : ¬𝐴(𝑥)

5
Beweismethoden:
→ Beispiel geben ∃𝑥
→ Gegenbeispiel geben: um zu zeigen, dass ∀𝑥 : 𝐴(𝑥) falsch ist

Vollständige Induktion
Allaussagen über natürliche Zahlen kann man durch vollständige Induktion beweisen.
Sei 𝐴(𝑛) eine Aussage über alle natürlichen Zahlen.
Induktionsanfang (InA): 𝐴(1) ist wahr
Induktionsschritt (InS): ∀𝑛 ∈ N gilt 𝐴(𝑛) ⇒ 𝐴(𝑛 + 1)
Dann gilt ∀𝑛 ∈ N : 𝐴(𝑛)

Beispiel.
𝑛
∑︁ 𝑛(𝑛 + 1)
𝐴(𝑛) : 𝑘=
𝑘=1
2
InA: 1·2 √
1= =1
2

InS:
𝑛+1
∑︁ 𝑛
∑︁
𝑘= 𝑘 + (𝑛 + 1)
𝑘=1 𝑘=1
𝑛(𝑛 + 1)
= + (𝑛 + 1)
2
𝑛(𝑛 + 1) + 2(𝑛 + 1)
=
2
(𝑛 + 1)(𝑛 + 2)
=
2 √
𝐴(𝑛 + 1)

1 Mengen
Eine Menge ist die Zusammenfassung von unterschiedlichen Objekten zu einem neuen
Objekt.
𝑀 = {1, 2, 3} 𝑀 = {𝑒, 𝑚} 𝑀 = {1, 2, {3, 4}}

Wichtige Mengen:

natürliche Zahlen N = {1, 2, 3, . . . }


natürliche Zahlen mit 0 N0 = {0, 1, 2, 3, . . . }
ganze Zahlen Z = {0, 1, −1, 2, −2, . . . }

6
rationale Zahlen Q ={ 𝑝
𝑞
| 𝑝 ∈ Z, 𝑞 ∈ N, 𝑝𝑞 gekürzter Bruch }
reelle Zahlen R
komplexe Zahlen C

Gehört ein Objekt 𝑥 zur Menge 𝑀 , so schreiben wir


𝑥 ∈ 𝑀, andernfalls 𝑥 ∈
/ 𝑀.
Zwei Mengen 𝑀 und 𝑁 sind gleich, falls
𝑥 ∈ 𝑀 ⇔ 𝑥 ∈ 𝑁,
wir schreiben
𝑀 = 𝑁, andernfalls 𝑀 ̸= 𝑁.
Die leere Menge ∅ ist die Menge, die kein Objekt enthält, d.h. 𝑥 ∈
/ ∅ für alle Objekte 𝑥.

Definition 1.1
• Eine Menge M ist eine Teilmenge (Untermenge) einer Menge 𝑁 , falls für alle 𝑥 ∈ 𝑀
auch gilt: 𝑥 ∈ 𝑁 . (Äquivalent: falls 𝑥 ∈ 𝑀 ⇒ 𝑥 ∈ 𝑁 .) Wir schreiben 𝑀 ⊂ 𝑁 oder
𝑁 ⊃ 𝑀 oder 𝑀 ⊆ 𝑁 . Man nennt 𝑁 auch Obermenge von 𝑀 .
• Gilt zudem 𝑀 ̸= 𝑁 , so nennt man 𝑀 eine echte Teilmenge von 𝑁 . Wir schreiben
𝑀 ( 𝑁 oder 𝑁 ) 𝑀 .
Bemerkung.
1 Aus 𝐴 ⊆ 𝐵 und 𝐵 ⊆ 𝐶 folgt 𝐴 ⊆ 𝐶
2 Aus 𝐴 ⊂ 𝐵 und 𝐵 ⊂ 𝐴 folgt 𝐴 = 𝐵

Beweis.
Sei 𝐴 ⊂ 𝐵 und 𝐵 ⊂ 𝐶, dann gilt 𝑥 ∈ 𝐴 ⇒ 𝑥 ∈ 𝐵 und 𝑥 ∈ 𝐵 ⇒ 𝑥 ∈ 𝐶, also folgt
𝑥 ∈ 𝐴 ⇒ 𝑥 ∈ 𝐶, d.h. 𝐴 ⊂ 𝐶.
Definition 1.2
Gegeben sind zwei Mengen 𝑀 und 𝑁 . Definieren wir
1 Durchschnitt von 𝑀 und 𝑁
𝑀 ∩𝑁 ={ 𝑥 | 𝑥∈𝑀 ∧𝑥∈𝑁 }

𝑀 𝑀 ∩𝑁 𝑁

7
2 Vereinigung von 𝑀 und 𝑁
𝑀 ∪𝑁 ={ 𝑥 | 𝑥∈𝑀 ∨𝑥∈𝑁 }

𝑀 𝑀 ∪𝑁 𝑁

3 Komplement oder die Differenz


Differenz 𝑀 ∖ 𝑁 = { 𝑥 | 𝑥 ∈ 𝑀 ∧ 𝑥 ∈
/𝑁 }
Wir schreiben auch 𝑀 − 𝑁 , und sagen Komplement von 𝑁 in 𝑀 .

𝑀 𝑀 ∖𝑁 𝑁

Definition 1.3
𝑀 und 𝑁 heißen disjunkt falls 𝑀 ∩ 𝑁 = ∅

𝑀 𝑁

Bemerkung. Für Mengen 𝑀 und 𝑁 gilt


1) 𝑀 ∩ 𝑁 ⊆ 𝑀 ⊆ 𝑀 ∪ 𝑁

2) 𝑀 ∩ 𝑁 ⊆ 𝑁 ⊆ 𝑀 ∪ 𝑁

3) 𝑀 ∖ 𝑁 ⊆ 𝑀

4) (𝑀 ∖ 𝑁 ) ∩ 𝑁 = ∅

5) 𝑀 ∖ 𝑁 = ∅ ⇔ 𝑀 ⊆ 𝑁

6) 𝑀 ∪ 𝑁 = ∅ ⇔ 𝑀 = ∅ ∧ 𝑁 = ∅

Für Mengen 𝑀, 𝑁 und 𝑂 gilt:

8
1) (𝑀 ∩ 𝑁 ) ∩ 𝑂 = 𝑀 ∩ (𝑁 ∩ 𝑂) = ...
(𝑀 ∪ 𝑁 ) ∪ 𝑂 = 𝑀 ∪ (𝑁 ∪ 𝑂) = ...

2) (𝑀 ∪ 𝑁 ) ∩ 𝑂 = (𝑀 ∩ 𝑂) ∪ (𝑁 ∩ 𝑂)
(𝑀 ∩ 𝑁 ) ∪ 𝑂 = (𝑀 ∪ 𝑂) ∩ (𝑁 ∪ 𝑂)

3) (𝑀 ∖ 𝑁 ) ∩ 𝑂 = (𝑀 ∩ 𝑂) ∖ 𝑁 = (𝑀 ∩ 𝑂) ∖ (𝑁 ∩ 𝑂)

4) 𝑂 ∖ (𝑀 ∪ 𝑁 ) = (𝑂 ∖ 𝑀 ) ∩ (𝑂 ∖ 𝑁 )
𝑂 ∖ (𝑀 ∩ 𝑁 ) = (𝑂 ∖ 𝑀 ) ∪ (𝑂 ∖ 𝑁 )

Definition 1.4
Produkt zweier Menge 𝑀 und 𝑁 ist definiert als die Menge

𝑀 × 𝑁 = { (𝑥, 𝑦) | 𝑥 ∈ 𝑀 ∧ 𝑦 ∈ 𝑁 }
geordnete Paare

Beispiel.

1) 𝑀 × ∅ = ∅

2) Sei 𝐽 = [0, 1] = {𝑥 ∈ R|0 ≤ 𝑥 ≤ 1} ( R}


𝐽 × 𝐽 ist das Quadrat

(1, 1)
1

0 1

Seien 𝑀1 , ..., 𝑀𝑛 Mengen

𝑀1 × 𝑀2 × ... × 𝑀𝑛 = { (𝑥1 , ..., 𝑥𝑛 ) | 𝑥𝑖 ∈ 𝑀𝑖 für alle 1 ≤ 𝑖 ≤ 𝑛 }


𝑛-Tupel

Wir können unendliche Familien von Mengen betrachten. (𝑀𝑖 )𝑖∈𝐼


∏︁ ⋂︁ ⋃︁
𝑀𝑖 , 𝑀𝑖 , 𝑀𝑖
𝑖∈𝐼 𝑖∈𝐼 𝑖∈𝐼

Produkt Durchschnitt Vereinigung

Definition 1.5

• Sei 𝑀 eine endliche Menge. Die Ordnung von 𝑀 ist die Anzahl der Elemente in
𝑀 , wir schreiben |𝑀 |.

9
• Die Potenzmenge 𝑃 (𝑀 ) einer (endlichen) Menge 𝑀 ist die Menge aller Teilmengen
von 𝑀 .

Beispiel.

• 𝑀 = {0, 1} ⇒ 𝑃 (𝑀 ) = {𝑀, ∅, {0}, {1}}

• Ist 𝑀 endlich von Ordnung |𝑀 | = 𝑛, so ist 𝑃 (𝑀 ) endlich von Ordnung

|𝑃 (𝑀 )| = 2𝑛 .

Russel’sches Paradox / Russel’sche Antinomie

𝑀 = { 𝑥 | 𝑥 ist eine Menge und 𝑥 ∈


/𝑥}

führt zu einem Widerspruch! 1

2 Abbildungen
Definition 2.1
Eine Abbildung 𝑓 von einer Menge 𝑀 in eine Menge 𝑁 ist eine Vorschrift, die jedem
Element 𝑚 ∈ 𝑀 genau ein Element 𝑛 = 𝑓 (𝑚) ∈ 𝑁 zuordent.
𝑓
Wir schreiben 𝑓 : 𝑀 → 𝑁, 𝑚 ↦→ 𝑓 (𝑚) oder auch 𝑀 → − 𝑁.
Die Menge 𝑀 heißt Definitionsbereich von 𝑓 , die Menge 𝑁 Wertebereich von 𝑓 .

• • •
• • •
• •
𝑀 𝑁

Beispiel.

1) 𝑓 : Z → Z, 𝑥 ↦→ 𝑥3 + 2

2) identische Abbildung:
𝑖𝑑𝑀 : 𝑀 → 𝑀
𝑚 ↦→ 𝑚

3) Wenn 𝑀 ⊂ 𝑁 eine Teilmenge ist, gibt es eine kanonische Inklusion


𝑖 : 𝑀 →𝑁

𝑚 ↦→ 𝑚
1
https://www.youtube.com/watch?v=WiPlFycsQ2s

10
4) Seien 𝑀 , 𝑁 zwei Mengen und 𝑛0 ∈ 𝑁 ein beliebiges Element. Die Abbildung
𝑓 :𝑀 →𝑁
𝑚 ↦→ 𝑛0
heißt konstante Abbildung.

5) Projektion: Seinen 𝑀1 , 𝑀2 zwei nichtleere Mengen und 𝑀1 ×𝑀2 das Mengenprodukt:


Die Abbildungen
𝑝𝑟1 : 𝑀1 × 𝑀2 → 𝑀1 , (𝑚1 , 𝑚2 ) ↦→ 𝑚1
𝑝𝑟2 : 𝑀1 × 𝑀2 → 𝑀2 , (𝑚1 , 𝑚2 ) ↦→ 𝑚2
heißen Projektion auf den ersten (bzw. zweiten) Faktor.

Bemerkung.
Abbildungen 𝑓 : R → R (oder allgemeiner 𝑓{︃: R𝑛 → R) heißen Funktionen.
0 𝑥≥0
Zum Beispiel: 𝑓 (𝑥) = 𝑥2 oder auch 𝑓 (𝑥) =
1 𝑥<0
{︃
0 𝑥≥0
NICHT ABER 𝑓 (𝑥) = , 𝑓 (𝑥) = 𝑥1
1 𝑥≤0

Definition 2.2
Zwei Abbildungen 𝑓 : 𝑀 → 𝑁 und 𝑔 : 𝑀 → 𝑁 sind gleich, falls 𝑓 (𝑚) = 𝑔(𝑚) für alle
𝑚 ∈ 𝑀 gilt. Wir schreiben 𝑓 = 𝑔.

Beispiel. 𝑓 (𝑥) = (𝑥 + 1)2 ist gleich 𝑔(𝑥) = 𝑥2 + 2𝑥 + 1.

Definition 2.3
Seien 𝑀, 𝑁 Mengen, 𝑓 : 𝑀 → 𝑁 eine Abbildung. Sei 𝑀 ′ ⊂ 𝑀 eine Teilmenge. Die
Einschränkung von 𝑓 auf 𝑀 ′ ist definiert als

𝑓 |𝑀 ′ : 𝑀 ′ → 𝑁, 𝑚 ↦→ 𝑓 (𝑚).

Definition 2.4
Sei 𝑓 : 𝑀 → 𝑁 eine Abbildung der Menge 𝑀 in die Menge 𝑁 .

1 Die Urbildmenge eines Elements 𝑛 ∈ 𝑁 ist

𝑓 −1 (𝑛) := { 𝑚 ∈ 𝑀 | 𝑓 (𝑚) = 𝑛 }

11
• • • •
• •
• • •

𝑀 𝑁

2 Sei 𝑁 ′ ⊂ 𝑁 eine Teilmenge. Das Urbild von 𝑁 ′ ist

𝑓 −1 (𝑁 ′ ) := { 𝑚 ∈ 𝑀 | 𝑓 (𝑚) ∈ 𝑁 ′ } ⊂ 𝑀.

3 Sei 𝑀 ′ ⊂ 𝑀 eine Teilmenge. Das Bild von 𝑀 ′ ist

𝑓 (𝑀 ′ ) := { 𝑓 (𝑚) ∈ 𝑁 | 𝑚 ∈ 𝑀 ′ } ⊂ 𝑁.

Das Bild 𝑓 (𝑀 ) von 𝑀 wird auch Bild von 𝑓 genannt.

Bemerkung.

1) 𝑓 −1 (𝑁 ) = (𝑀 ) gilt nach Definition 2.1 immer, aber im Allgemeinen nicht, dass


𝑓 (𝑀 ) = 𝑁 .

2) Es seien 𝑀 ′ ⊂ 𝑀, 𝑁 ′ ⊂ 𝑁 Teilmengen, dann gilt

𝑓 (𝑀 ′ ) ⊂ 𝑁 ′ ⇔ 𝑀 ′ ⊂ 𝑓 −1 (𝑁 ′ ).

3) Es gilt daher

𝑀 ′ ⊂ 𝑓 −1 (𝑓 (𝑀 ′ ))
𝑓 (𝑓 −1 (𝑁 ′ )) ⊂ 𝑁 ′ .
Beweis.

2. „⇒“ Sei 𝑓 (𝑀 ′ ) ⊂ 𝑁 ′ ; daraus folgt, dass 𝑓 (𝑚) ∈ 𝑁 ′ für alle 𝑚 ∈ 𝑀 ′ , also 𝑓 (𝑀 ′ ) ⊂


𝑓 −1 (𝑁 ′ ).
„⇐“ Sei 𝑀 ′ ⊂ 𝑓 −1 (𝑁 ′ ); daraus folgt, dass 𝑓 (𝑚) ∈ 𝑁 ′ für alle 𝑚 ∈ 𝑀 ′ , also
𝑓 (𝑀 ′ ) ⊂ 𝑁 ′

3. folgt aus 2) mit 𝑁 ′ = 𝑓 (𝑀 ′ )


bzw. 𝑀 ′ = 𝑓 −1 (𝑀 ′ ).

Definition 2.5
Wichtige Eigenschaften von Abbildungen: Eine Abbildung 𝑓 : 𝑀 → 𝑁 heißt

12
1 injektiv, falls für alle 𝑛 ∈ 𝑁 die Urbildmenge 𝑓 −1 (𝑛) höchstens ein Element enthält.
(äquivalent: falls gilt 𝑚 ̸= 𝑚′ ⇒ 𝑓 (𝑚) ̸= 𝑓 (𝑚′ )).


𝑀 𝑀

• • •
• •
• •

𝑀 𝑁

2 surjektiv, falls 𝑓 (𝑀 ) = 𝑁 , d.h. zu jedem 𝑛 ∈ 𝑁 existiert ein 𝑚 ∈ 𝑀 , sodass


𝑓 (𝑚) = 𝑚. (äquivalent: 𝑓 −1 (𝑛) ̸= ∅ für alle 𝑛 ∈ 𝑁 ).

• • •

• • • •
𝑀 𝑁

3 bijektiv, falls 𝑓 surjektiv und injektiv ist.


(äquivalent: für alle 𝑛 ∈ 𝑁 enthält 𝑓 −1 (𝑛) genau ein Element).

• • • •

• • • •

𝑀 𝑁

Bemerkung. Ist 𝑓 : 𝑀 → 𝑁 bijektiv, so definiert man die Umkehrabbildung

𝑓 −1 : 𝑁 → 𝑀

durch die Regel: 𝑓 −1 (𝑛) = Das eindeutige Element der Menge 𝑓 −1 (𝑛).
Achtung: Hier verwenden wir das Symbol 𝑓 −1 in zwei verschiedenen Weisen.

→ als Urbildmenge

→ als Umkehrabbildung

13
Verknüpfung von Abbildungen
Definition 2.6
Seien 𝑓 : 𝑀 → 𝑁 und 𝑔 : 𝑁 → 𝑂 Abbildungen. Die Abbildung

𝑔∘𝑓 :𝑀 𝑂, 𝑚 ↦→ 𝑔(𝑓 (𝑚))


𝑓 𝑔

heißt Komposition (oder Hintereinanderschaltung oder Verknüpfung) von 𝑓 und 𝑔.

Lemma 2.7. Die Komposition zweier injektiver (bzw. surjektiver, bzw. bijektiver) Abbil-
dungen ist injektiv (bzw. surjektiv, bzw. bijektiv).

Beweis.
Seien 𝑓 : 𝑀 → 𝑁 und 𝑔 : 𝑁 → 𝑂 injektiv. Nehme an (𝑔 ∘ 𝑓 )(𝑚) = (𝑔 ∘ 𝑓 )(𝑚′ ) für
𝑚, 𝑚′ ∈ 𝑀 . Dann gilt
𝑔(𝑓 (𝑚)) = 𝑔(𝑓 (𝑚′ ))
Da 𝑔 injektiv ist, folgt 𝑓 (𝑚) = 𝑓 (𝑚′ ) für 𝑚, 𝑚′ ∈ 𝑀.
Da 𝑓 injektiv ist, folgt 𝑚 = 𝑚′ .
Also 𝑓 ∘ 𝑔 surjektiv.
Da
(𝑔 ∘ 𝑓 )(𝑚) = (𝑔 ∘ 𝑓 )(𝑚′ ) ⇒ 𝑚 = 𝑚′
äquivalent ist zu
𝑚 ̸= 𝑚′ ⇒ (𝑔 ∘ 𝑓 )(𝑚) ̸= (𝑔 ∘ 𝑓 )(𝑚′ ).

Bemerkung.

1 Die Komposition von Abbildungen ist assoziativ. Gegeben: 𝑓 : 𝑀 → 𝑁, 𝑔:𝑁 →


𝑂, ℎ : 𝑁 → 𝑃 so gilt
(ℎ ∘ 𝑔) ∘ 𝑓 = ℎ ∘ (𝑔 ∘ 𝑓 )
Deshalb lassen wir die Klammern oft weg und schreiben ℎ ∘ 𝑔 ∘ 𝑓 .
Wir schreiben auch für 𝑓 : 𝑀 → 𝑀

𝑓 𝑛 = 𝑓 ∘ ... ∘ 𝑓
⏟ ⏞
n-mal

2 Sei 𝑓 : 𝑀 → 𝑁 eine Abbildung. Dann gilt 𝑓 ∘ 𝑖𝑑𝑀 = 𝑓 = 𝑖𝑑𝑁 ∘ 𝑓

3 Sei 𝑀 ′ ⊂ 𝑀 eine Teilmenge und 𝑖 : 𝑀 ′ → 𝑀 die Inklusion, so ist 𝑓 ∘ 𝑖 = 𝑓 |𝑀 ′ .

14
4 Ist 𝑓 : 𝑀 → 𝑁 bijektiv und ist 𝑓 −1 : 𝑁 → 𝑀 die Umkehrabbildung, so gilt
𝑓
𝑀 𝑁
𝑓 −1

𝑓 −1 ∘ 𝑓 = 𝑖𝑑𝑀 𝑓 ∘ 𝑓 −1 = 𝑖𝑑𝑁

Lemma 2.8. Sei 𝑓 : 𝑀 → 𝑁 eine Abbildung zwischen zwei nichtleeren Mengen 𝑀 und
𝑁 . Dann gilt

1 𝑓 ist genau dann injektiv, falls es eine Abbildung 𝑔 : 𝑁 → 𝑀 gibt, so dass

𝑔 ∘ 𝑓 = 𝑖𝑑𝑀

(g ist ein Linksinverses zu 𝑓 ).

2 𝑓 ist genau dann surjektiv, falls es eine Abbildung 𝑔 : 𝑁 → 𝑀 gibt, so dass

𝑓 ∘ 𝑔 = 𝑖𝑑𝑁

(g ist ein Rechtsinverses zu 𝑓 ).

3 𝑓 ist genau dann bijektiv, falls es eine Abbidlung 𝑔 : 𝑁 → 𝑀 gibt, so dass

𝑓 ∘ 𝑔 = 𝑖𝑑𝑁 𝑔 ∘ 𝑓 = 𝑖𝑑𝑀

In diesem Fall ist 𝑔 = 𝑓 −1 die Umkehrfunktion.

Beweis.

1 „⇒“ Sei 𝑓 injektiv. Dann gibt es zu jedem 𝑛 ∈ 𝑓 (𝑀 ) genau ein 𝑚 ∈ 𝑀 mit

𝑓 (𝑚) = 𝑛.

Definiere 𝑔(𝑛) := 𝑚. Für alle 𝑛 ∈ 𝑁 ∖ 𝑓 (𝑀 ) definiere 𝑔(𝑛) := 𝑚0 für ein


beliebig gewähltes Element 𝑚0 ∈ 𝑀 .
Dies gibt die gewünschte Abbildung

𝑔 : 𝑁 → 𝑀 mit 𝑔 ∘ 𝑓 = 𝑖𝑑𝑀 .

„⇐“ Sei 𝑔 : 𝑁 → 𝑀 ein Linksinverses zu 𝑓 , d.h. 𝑔 ∘ 𝑓 = 𝑖𝑑𝑀 .


Seien 𝑚, 𝑚′ ∈ 𝑀 mit 𝑓 (𝑚) = 𝑓 (𝑚′ ). Dann gilt

𝑚 = 𝑖𝑑𝑀 (𝑚) = (𝑔∘𝑓 )(𝑚) = 𝑔(𝑓 (𝑚)) = 𝑔(𝑓 (𝑚′ )) = 𝑔∘𝑓 (𝑚′ ) = 𝑖𝑑𝑀 (𝑚′ ) = 𝑚′

Also ist 𝑓 injektiv.

15
2 „⇒“ Sei 𝑓 surjektiv.Dann ist für alle 𝑛 ∈ 𝑁 die Urbildmenge 𝑓 −1 (𝑛) nicht leer.
Auswahlaxiom:2
Wähle ein 𝑚 ∈ 𝑓 −1 aus und definiere 𝑔 : 𝑁 → 𝑀 durch 𝑔(𝑛) := 𝑚. Dann gilt
(𝑓 ∘ 𝑔)(𝑛) = 𝑛,
also 𝑓 ∘ 𝑔 = 𝑖𝑑𝑁 .
„⇐“ Sei 𝑔 : 𝑁 → 𝑀 ein Rechtsinverses. Dann gilt für alle 𝑛 ∈ 𝑁
𝑛 = (𝑓 ∘ 𝑔)(𝑛) = 𝑓 (𝑔(𝑛)).

Also 𝑓 (𝑀 ) = 𝑁 , also ist f surjektiv.


3 „⇒“ Sei 𝑓 bijektiv. So erfüllt die Umkehrabbildung 𝑓 −1 : 𝑁 → 𝑀 die Bedingungen
𝑓 −1 ∘ 𝑓 = 𝑖𝑑𝑀 𝑓 ∘ 𝑓 −1 = 𝑖𝑑𝑁 .

„⇐“ Existiert eine Abbildung 𝑔 : 𝑁 → 𝑀 mit 𝑔 ∘ 𝑓 = 𝑖𝑑𝑀 , 𝑓 ∘ 𝑔 = 𝑖𝑑𝑁 .


Also 𝑓 injektiv und surjektiv, also bijektiv.

Bemerkung. Wie bezeichnen mit Abb(𝑀, 𝑁 ) die Menge aller Abbildungen von 𝑀 nach
𝑁 . Die Komposition ist eine Abbildung von Abbildungen
Abb(𝑀, 𝑁 ) × Abb(𝑁, 𝑂) → Abb(𝑀, 𝑂)
(𝑓, 𝑔) ↦→ 𝑔 ∘ 𝑓

Lemma 2.9. Sei 𝐼 eine Menge (Indexmenge) und 𝑀 eine Menge. Es existiert eine Bijektion
(natürliche Bijektion) ∏︁
Φ : Abb(𝐼, 𝑀 ) → 𝑀
𝑖∈𝐼

𝑓 ↦→ (𝑓 (𝑖))𝑖∈𝑀
Bemerkung.
1) Seien 𝑀, 𝑁 nichtleere, endliche Mengen, sei |𝑀 | = 𝑚, |𝑁 | = 𝑛 die Kardinalität
von 𝑀 und 𝑁 .
|𝑀 × 𝑁 | = 𝑚 · 𝑛
| Abb(𝑀, 𝑁 )| = 𝑛𝑚
| Abb(𝑁, 𝑀 )| = 𝑚𝑛
2) | Abb(∅, 𝑀 )| = 1
Abb(∅, 𝑀 ) = ∅
Abb(∅, ∅) = {𝑖𝑑∅ }
2
https://www.youtube.com/watch?v=ErHXpwyvUxg

16
3 Äquivalenzrelationen
Eine Relation setzt Elemente einer gegebenen Menge 𝑀 in Beziehung zueinander.
Wir schreiben 𝑚 ∼ 𝑛 wenn 𝑚, 𝑛 ∈ 𝑀 in dieser Beziehung stehen.

Beispiel. ⎪

⎪ Keine Äquivalenzrelation
⎨(Ä1) nicht erfüllt

1) 𝑀 = R 𝑥 ∼ 𝑦 :⇔ 𝑥 < 𝑦


⎪ (Ä2) nicht erfüllt
⎩(Ä3) ist erfüllt

2) 𝑀 = Z 𝑥 ∼ 𝑦 :⇔ (𝑥 − 𝑦) ist gerade ist Äquivalenzrelation

Definition 3.1
Eine Relation auf einer Menge 𝑀 ist eine Teilmenge 𝑅 ⊂ 𝑀 × 𝑀

𝑚 ∼ 𝑛 :⇔ (𝑚, 𝑛) ∈ 𝑅

Definition 3.2
Eine Relation ∼ auf einer Menge 𝑀 heißt Äquivalenzrelation, wenn folgende Bedingungen
erfüllt sind:

(Ä1) Reflexivität: 𝑚 ∼ 𝑚 für alle 𝑚 ∈ 𝑀

(Ä2) Symmetrie: 𝑚 ∼ 𝑛 ⇒ 𝑛 ∼ 𝑚 für alle 𝑚, 𝑛 ∈ 𝑀

(Ä3) Transitivität: 𝑚 ∼ 𝑛 ∧ 𝑛 ∼ 𝑜 ⇒ 𝑚 ∼ 𝑜 für alle 𝑚, 𝑛, 𝑜 ∈ 𝑀

Die Elemente 𝑚, 𝑛 ∈ 𝑀 , für die gilt 𝑚 ∼ 𝑛, nennen wir äquivalent.

Definition 3.3
Sei 𝑀 eine Menge und ∼ eine Äquivalenzrelation auf 𝑀 .

1 Für ein Element 𝑚 ∈ 𝑀 definieren wir die Äquivalenzklasse von 𝑚

[𝑚] := {𝑛 ∈ 𝑀 |𝑚 ∼ 𝑛} ⊆ 𝑀

2 Eine nichtleere Teilmenge 𝐴 ⊂ 𝑀 heißt Äquivalenzklasse, falls


𝑖) 𝑚, 𝑛 ∈ 𝐴 ⇒ 𝑚 ∼ 𝑛
𝑖𝑖) 𝑚 ∈ 𝐴, 𝑛 ∈ 𝑀 mit 𝑚 ∼ 𝑛 ⇒ 𝑛 ∈ 𝐴

17
Lemma 3.4.

1 Jedes Element 𝑚 ∈ 𝑀 ist in genau einer Äquivalenzklasse enthalten, nämlich in


[𝑚].

2 Seien 𝐴, 𝐴′ ⊂ 𝑀 Äquivalenzklassen, dann gilt entweder 𝐴 = 𝐴′


oder 𝐴 ∩ 𝐴′ = ∅

Beweis.

von 1 : - 𝑚 gehört zu einer Äquivalenzklasse, 𝑚 ∈ [𝑚] ̸= ∅ (Ä1).


𝑖) - Sei 𝑛, 𝑜 ∈ [𝑚]. Dann gilt 𝑚 ∼ 𝑛 und 𝑛 ∼ 𝑜 ===⇒ 𝑛 ∼ 𝑚 und 𝑚 ∼ 𝑜 ===⇒
(Ä2) (Ä3)
𝑛 ∼ 𝑜.
𝑖𝑖) - Sei 𝑛 ∈ [𝑚] und 𝑚 ∼ 𝑜. Dann gilt 𝑚 ∼ 𝑛 und 𝑛 ∼ 𝑜 ===⇒ 𝑚 ∼ 𝑜 ⇒ 𝑜 ∈ [𝑚].
(A3)
Also ist [𝑚] eine Äquivalenzklasse.

von 2 : Wir zeigen, falls 𝑚 ∈ 𝑀 existiert mit

𝑚 ∈ 𝐴 und 𝑚 ∈ 𝐴′ ⇒ 𝐴 = 𝐴′ .

Zeige 𝐴 ⊂ 𝐴′ : Sei 𝑎 ∈ 𝐴 dann gilt 𝑚 ∼ 𝑎, weil 𝑚 ∈ 𝐴′ gilt auch 𝑎 ∈ 𝐴′ (𝑖𝑖𝑖).


Also 𝐴 ⊂ 𝐴′ .
Mit dem analogen Argument zeige 𝐴′ ⊂ 𝐴.
Also 𝐴 = 𝐴′ .

Beispiel. 𝑀 = Menge aller Schüer einer Schule.


𝑚 ∼ 𝑛 :⇔ 𝑚, 𝑛 gehen in die gleiche Klasse.
Eine Klasse, z.B. Klasse 5b ist eine Äquivalenzklasse.

Definition 3.5

1 Die Menge der Äquivalenzklassen einer Menge 𝑀 bezüglich einer


Äquivalenzrelation ∼ heißt Faktormenge oder Quotientenmenge

𝑀/∼

2 Die Abbildung

𝑝: 𝑀 → 𝑀/∼
𝑚 ↦→ [𝑚]

heißt kanonische Projektion.

18
Bemerkung.

1) Die Urbildmenge 𝑝−1 (𝐴) einer Äquivalenzklasse 𝐴 ist 𝐴 (aufgefasst als Teilmenge
von 𝑀 ).

2) Sei 𝑀 eine Menge und ∼ eine Äquivalenzrelation, so ist



⋃︁
𝑀=
𝐴∈𝑀/∼

eine disjunkte Vereinigung.



3) Sei 𝑀 = 𝑀𝑖 eine disjunkte Vereinigung, so können wir eine Äquivalenzrelation
⋃︀
𝑖∈𝐼
definieren.
𝑥 ∼ 𝑦 :⇔ ∃𝑖 ∈ 𝐼 : 𝑥, 𝑦 ∈ 𝑀𝑖
Dann sind die 𝑀𝑖 genau die Äquivalenzklassen von ∼ auf 𝑀 .

Beispiel.

1
Z = N × N/∼
(𝑚, 𝑛) ∼ (𝑚′ , 𝑛′ ) :⇔ 𝑚 − 𝑛 = 𝑚′ − 𝑛′

2 Restklassen modulo 𝑝
Sei 𝑀 = Z und 𝑝 ∈ N eine natürliche Zahl

𝑥 ∼ 𝑦 :⇔ (𝑥 − 𝑦) ist durch 𝑝 teilbar.

[𝑥] = { 𝑥 + 𝑛𝑝 ∈ 𝑍 | 𝑛 ∈ 𝑍 }
Es gilt [𝑧] = [𝑥 + 𝑛𝑝] für alle 𝑛 ∈ Z. Daher gibt es genau 𝑝 Äquivalenzklassen.

[0] [1] . . . [𝑝 − 1]

Die Äquivalenzklassen [𝑥] werden Restklassen modulo 𝑝 genannt, da sie aus allen
ganzen Zahlen bestehen, die bei Divison durch 𝑝 den gleichen Rest wie 𝑥 ergeben.
Die Quotientenmenge Z/∼ nennt man auch Z/𝑝Z .

19
Teil II
Vektorräume
4 Gruppen
4.1 Definition
Definition 4.1 (Gruppe)
Eine Gruppe ist ein Paar (𝐺, ∙) bestehend aus einer Menge 𝐺 und einer Abbildung

∙ : 𝐺 × 𝐺 → 𝐺,

so dass folgende Bedingungen erfüllt sind:

G1 Assoziativität: für alle 𝑔, ℎ, 𝑖 ∈ 𝐺 gilt

𝑔 · (ℎ · 𝑖) = (𝑔 · ℎ) · 𝑖

G2 Rechtsneutrales Element: ∃ 𝑒 ∈ 𝐺 so dass ∀𝑔 ∈ 𝐺 gilt

𝑔·𝑒=𝑔

G3 Rechtsinverses Element: ∀𝑔 ∈ 𝐺 existiert ein 𝑔 ′ ∈ 𝐺 so dass

𝑔 · 𝑔′ = 𝑒

Eine Gruppe heißt abelsch oder kommutativ, falls zusätzlich gilt

G4 ∀𝑔, ℎ ∈ 𝐺 gilt
𝑔·ℎ=ℎ·𝑔

Beispiel.

1 (R, +) ist eine abelsche Gruppe (Z, Q, C, +),


𝑒 = 0, R ∋ 𝑔 rechtsinverses Element ist −𝑔

2 (R ∖ {0}, ∙) ist eine abelsche Gruppe.


𝑒 = 1, R ∖ {0}. Dann ist das rechtsinverse Element 𝑔1 .

3 (R>0 , ∙) ist eine abelsche Gruppe.

20
4 (Z ∖ 𝑝Z, +) ist eine abelsche Gruppe.
Wie ist die Addition definiert?
Seien [𝑚], [𝑛] ∈ Z ∖ 𝑝Z Restklassen, definiere

[𝑚] + [𝑛] := { 𝑎 + 𝑏 ∈ Z | 𝑎 ∈ [𝑚], 𝑏 ∈ [𝑛] }.

Dies ist wieder eine Äquvivalenzklasse.

[𝑚] + [𝑛] = { 𝑚 + 𝑘𝑝 + 𝑛 + 𝑙𝑝 ∈ Z | 𝑙, 𝑘 ∈ Z }
= { (𝑚 + 𝑛) + (𝑘 + 𝑙)𝑝 | 𝑙, 𝑘 ∈ Z }
= { (𝑚 + 𝑛) + 𝑟𝑝 | 𝑟 ∈ Z } = [𝑚 + 𝑛]

Also

+ : Z ∖ 𝑝Z × Z ∖ 𝑝Z → Z ∖ 𝑝Z
([𝑚], [𝑛]) ↦→ [𝑚 + 𝑛]

Diese Abbildung ist assoziativ und kommutativ. Das rechtsneutrale Element ist [0],
rechtsinverse zu [𝑛] ist [−𝑛].

5 Sei 𝑀 eine nichtleere Teilmenge und Bij(𝑀, 𝑀 ) die Menge aller Bijektionen von
𝑀 nach 𝑀 .
Dann ist (Bij(𝑀, 𝑀 ), ∘) mit der Komposition

∘ : Bij(𝑀, 𝑀 ) × Bij(𝑀, 𝑀 ) → Bij(𝑀, 𝑀 )


(𝑔, 𝑓 ) ↦→ 𝑔 ∘ 𝑓

eine Gruppe.

Assoziativität
Rechtsneutrales Element: 𝑖𝑑𝑀
Rechtsinverses Element zu 𝑔 ist die Umkehrabbildung 𝑔 −1 .

6 Die symmetrische Gruppe 𝑆𝑛 .


Sei 𝑛 ∈ N eine natürliche Zahl und 𝑋 = {1, ..., 𝑛}. Die symmetrische Gruppe 𝑆𝑛
ist die Gruppe
𝑆𝑛 := (Bij(𝑋, 𝑋), ∙)
Elemente 𝜋 ∈ 𝑆𝑛 heißen Permutationen. Wir schreiben
(︃ )︃
1, 2, ..., n
𝑆𝑛 ∋ 𝜋 :=
𝜋(1), 𝜋(2), ..., 𝜋(𝑛)
(︃ )︃
1, 2, ..., n
𝑒=
1, 2, ..., n

21
𝑆1 besteht aus einem Element 𝑒.
𝑆2 besteht aus zwei Elementen:
(︃ )︃ (︃ )︃
1, 2 1, 2
𝑒= 𝜏= "Transposition"
1, 2 2, 1
Es gilt 𝜏 2 = 𝜏 · 𝜏 = 𝜏 ∘ 𝜏 = 𝑒.
Wie viele Elemente hat 𝑆𝑛 ?

|𝑆𝑛 | = 𝑛(𝑛 − 1)...1 = 𝑛! (𝑛 Fakultät)

Für 𝑛 ≥ 3 gilt 𝑆𝑛 ist nicht abelsch!


Zu zeigen: Finde 𝜋 und 𝜎 , so dass 𝜋 · 𝜎 ̸= 𝜎 · 𝜋.

𝑆𝑛 𝑆𝑛
(︃ )︃ (︃ )︃
1, 2, 3, 4, ..., 𝑛 1, 2, 3, 4, ..., 𝑛
Sei 𝜋 = und 𝜎 =
2, 1, 3, 4, ..., 𝑛 1, 3, 2, 4, ..., 𝑛
(︃ 1, 2, 3, 4, ..., 𝑛 )︃ (︃ 1, 2, 3, 4, ..., 𝑛 )︃
𝜋·𝜎 = 1, 3, 2, 4, ..., 𝑛 und 𝜎 · 𝜋 = 2, 1, 3, 4, ..., 𝑛
2, 3, 1, 4, ..., 𝑛 3, 1, 2, 4, ..., 𝑛

Also 𝜋 · 𝜎 ̸= 𝜎 · 𝜋.

Satz 4.2
Sei (𝐺, ∙) eine Gruppe. Dann gilt

1 Sei 𝑔 ′ ∈ 𝐺 rechtsinverses zu 𝑔 ∈ 𝐺. Dann gilt auch

𝑔′ · 𝑔 = 𝑒

d.h. 𝑔 ′ ist auch linksinvers.

2 Das rechtsneutrale Element 𝑒 ∈ 𝐺 ist auch linksneutral, d.h.

𝑒·𝑔 =𝑔 für alle 𝑔 ∈ 𝐺.

3 Das neutrale Element ist eindeutig, d.h. falls

𝑔 · ℎ = 𝑔 ⇒ ℎ = 𝑒.

4 Das inverse Element 𝑔 ′ zu 𝑔 ist eindeutig. Wir nennen es 𝑔 ′ = 𝑔 −1 .

22
Beweis.

zu 1 Sei 𝑔 ′ ∈ 𝐺 rechtsinvers zu 𝑔 ∈ 𝐺 Nach G3 existiert ein rechtsinverses Element 𝑔 ′′


zu 𝑔 ′ ∈ 𝐺, also

𝑒 = 𝑔 ′ · 𝑔 ′′ = (𝑔 ′ · 𝑒) · 𝑔 ′′ = (𝑔 ′ · (𝑔 · 𝑔 ′ )) · 𝑔 ′′
𝐺3 𝐺2 𝐺3+𝑉 𝑜𝑟.

= (𝑔 ′ · 𝑔) · (𝑔 ′ · 𝑔 ′′ ) = (𝑔 · 𝑔) · 𝑒 = 𝑔 ′ · 𝑔.

𝐺1 𝐺3 𝐺2

zu 2 Wir wissen, dass das rechtisinverse Element 𝑔 ′ zu 𝑔 auch linksinvers ist.

𝑒 · 𝑔 = (𝑔 · 𝑔 ′ ) · 𝑔 = 𝑔 · (𝑔 ′ · 𝑔) = 𝑔 · 𝑒 = 𝑔.
𝐺3 𝐺1 1 𝐺2

zu 3 Sei ℎ ∈ 𝐺 mit 𝑔 · ℎ = 𝑔. Dann gilt

ℎ = 𝑒 · ℎ = (𝑔 ′ · 𝑔) · ℎ = 𝑔 ′ · (𝑔 · ℎ) = 𝑔 ′ · 𝑔 = 𝑒
2 1 𝐺1 𝑉 𝑜𝑟.

zu 4 Sei ℎ ∈ 𝐺 rechtsinvers zu 𝑔, d.h. 𝑔 · ℎ = 𝑒. Dann gilt

ℎ = 𝑒 · ℎ = (𝑔 ′ · 𝑔) · ℎ = 𝑔 ′ · (𝑔 · ℎ) = 𝑔 ′
2 1 𝐺1 𝑉 𝑜𝑟.

Bemerkung. Es gilt daher

𝑔·ℎ=𝑔·𝑘 ⇒ℎ=𝑘
ℎ·𝑔 =𝑘·𝑔 ⇒ℎ=𝑘

2
𝐺 ∋ (𝑔 · ℎ)−1 = ℎ−1 · 𝑔 −1
denn (𝑔 · ℎ) · (ℎ−1 · 𝑔 −1 ) = 𝑔 · (ℎ · ℎ−1 ) · 𝑔 −1
= 𝑔 · 𝑒 · 𝑔 −1 = 𝑔 · 𝑔 −1 = 𝑒

4.2 Untergruppen und Homomorphismen


Definition 4.3
Sei (𝐺, ∙) eine Gruppe. Eine Untergruppe ist eine nichtleere Teilmenge 𝐻 ⊂ 𝐺, so dass
für alle 𝑎, 𝑏 ∈ 𝐻 gilt, dass auch 𝑎 · 𝑏−1 ∈ 𝐻. Wir schreiben 𝐻 ⊂ 𝐺.

23
Bemerkung. (𝐻, ∙) ist selbst eine Gruppe.

→ Assoziativität

→ 𝑒 ∈ 𝐻, da 𝑒 = 𝑎 · 𝑎−1 ∈ 𝐻 (wähle 𝑏 = 𝑎).

→ Sei 𝑏 ∈ 𝐻 ⇒ 𝑏−1 ∈ 𝐻 (wähle 𝑎 = 𝑒).

Insbesondere ∀𝑎, 𝑏 ∈ 𝐻 gilt 𝑎 · 𝑏 ∈ 𝐻.

Beispiel.

1) (Z, +) ⊂ (Q, +) ⊂ (R, +)

2) Für 𝑝 ∈ N sei 𝑝Z = { 𝑝𝑛 | 𝑛 ∈ Z } die Menge aller ganzen Zahlen, die durch 𝑝


teilbar sind. Dann ist (𝑝Z, +) ⊂ (Z, +).

Satz 4.4
Alle Untergruppen 𝐻 ⊂ Z sind von der Form 𝐻 = 𝑝Z, 𝑝 ∈ N0 .

Beweis.
Sei 𝐻 ∈ Z eine Untergruppe, so gilt 0 ∈ 𝐻.

1. Fall 𝐻 = {0}. Dann gilt 𝐻 = 𝑝Z mit 𝑝 = 0.

2. Fall Andernfalls enthält 𝐻 mindestens eine positive ganze Zahl, denn für alle 𝑞 ∈ 𝐻
gilt −𝑞 ∈ 𝐻.
Sei 𝑝 ∈ 𝑍 die kleinste positive ganze Zahl in 𝐻.
Dann gilt 𝑛 · 𝑝 ∈ 𝐻 für alle 𝑛 ∈ Z, also 𝑝Z ⊂ 𝐻. Gäbe es ein 𝑞 ∈ 𝐻 ∖ 𝑝Z, dann
wissen wir dass alle 𝑞 − 𝑛𝑝 ∈ 𝐻. Aber die kleinste positive ganze Zahl dieser Form
ist kleiner als 𝑝. Das ist ein Widerspruch, da 𝑝 nach unserer Annahme die kleinste
positive Zahl in 𝐻 ist.
Also 𝑝Z = 𝐻.

Definition 4.5
Seien (𝐺, ∙𝐺 ) und (𝐻, ∙𝐻 ) Gruppen. Ein Gruppenhomomorphismus von 𝐺 und 𝐻 ist eine
Abbildung
𝜑 : 𝐺 → 𝐻,
so dass für alle 𝑎, 𝑏 ∈ 𝐺 gilt

𝜑(𝑎 ·𝐺 𝑏) = 𝜑(𝑎) ·𝐻 𝜑(𝑏).

Ist 𝜑 bijektiv, so nennt man 𝜑 einen Gruppenisomorphismus. Wir sagen dann 𝐺 ist
isomorph zu 𝐻 und schreiben 𝐺 ∼= 𝐻.

24
Beispiel.

1) Für 𝑝 ∈ 𝑁 ist die Inklusion


𝑖 : 𝑝Z → Z
𝑝𝑛 ↦→ 𝑝𝑛

ein Gruppenhomomorphismus.
2) Die Abbildung
𝑝·
Z− → 𝑝Z ⊂ Z
𝑛 ↦→ 𝑝𝑛

ist ein Gruppenhomomorphismus, es ist sogar ein Gruppenisomorphismus (Wie


sieht die Umkehrabbildung aus?).

3) Die Quotientenabbildung
𝜋 : Z → Z ∖ 𝑝Z
𝑛 ↦→ [𝑛]

ist ein Gruppenhomomorphismus.


4) Die Menge ({+1, −1}, ∙) ist eine Gruppe (𝑒 = 1). Die Abbildung
({+1, −1}, ∙) → (Z ∖ 2Z, +)
+1 ↦→ 0
−1 ↦→ 1

ist ein Gruppenisomorphismus.


5) Die Abbildung
𝑒𝑥𝑝 : (R, +) → (R>0 , ∙)
𝑥 ↦→ 𝑒𝑥

ist ein Gruppenisomorphismus.

Proposition 4.6
Seien 𝐺 und 𝐻 Gruppen und 𝜑 : 𝐺 → 𝐻 ein Gruppenhomomorphismus.

1 Dann gilt 𝜑(𝑒𝐺 ) = 𝑒𝐻 und für alle 𝑔 ∈ 𝐺 𝜑(𝑔 −1 ) = (𝜑(𝑔))−1 .

2 Sei 𝐺′ ⊂ 𝐺 eine Untergruppe von 𝐺. Dann ist 𝜑(𝐺′ ) eine Untergruppe von 𝐻.
Insbesondere ist das Bild von 𝜑,

𝜑(𝐺) = im(𝜑)

eine Untergruppe von 𝐻.

25
3 Ist 𝐻 ′ ⊂ 𝐻 eine Unterguppe von 𝐻, so ist das Urbild 𝜑−1 (𝐻 ′ ) eine Untergruppe
von 𝐺. Insbesondere ist der Kern von 𝜑

ker 𝜑 := 𝜑−1 (𝑒𝐻 )

eine Untergruppe von 𝐺.

4 Ist 𝜑 ein Gruppenisomorphismus, so gilt das auch für die Umkehrabbildung

𝜑−1 : 𝐻 → 𝐺.

Beweis.

zu 1 Es gilt
𝜑(𝑔) = 𝜑(𝑒𝐺 ·𝐺 𝑔) = 𝜑(𝑒𝐺 ) ·𝐻 𝜑(𝑔)
Nach Satz 4.2 3 gilt 𝜑(𝑒𝐺 ) = 𝑒𝐻 . Daraus folgt weiter

𝑒𝐻 = 𝜑(𝑒𝐺 ) = 𝜑(𝑔 ·𝐺 𝑔 −1 ) = 𝜑(𝑔) ·𝐻 𝜑(𝑔 −1 )

Mit Satz 4.2 4 folgt daher


𝜑(𝑔 −1 ) = (𝜑(𝑔))−1

zu 2 Seien 𝑎, 𝑏 ∈ 𝜑(𝐺′ ), d.h. ∃𝑔1 , 𝑔2 ∈ 𝐺′ mit 𝑎 = 𝜑(𝑔1 ); 𝑏 = 𝜑(𝑔2 ). Dann gilt

𝑎 · 𝑏−1 = 𝜑(𝑔1 ) · (𝜑(𝑔2 ))−1 = 𝜑(𝑔1 ) · 𝜑(𝑔2 −1 ) = 𝜑(𝑔1 · 𝑔2 −1 ).


1

𝐺′

Dies ist in 𝜑(𝐺′ ).

zu 3 Seien 𝑎, 𝑏 ∈ 𝜑−1 (𝐻 ′ ), dann gilt 𝜑(𝑎), 𝜑(𝑏) ∈ 𝐻 ′ . Da 𝐻 ′ ⊂ 𝐻 eine Untergruppe ist,


gilt
𝐻 ′ ∋ 𝜑(𝑎) · (𝜑(𝑏))−1 = 𝜑(𝑎) · 𝜑(𝑏−1 ) = 𝜑(𝑎 · 𝑏−1 ),
1

also 𝑎 · 𝑏−1 ∈ 𝜑−1 (𝐻 ′ ). Also: 𝜑−1 (𝐻 ′ ) ist eine Untergruppe.

zu 4 Die Umkehrabbildung 𝜑−1 : 𝐻 → 𝐺 ist bijektiv, wir müssen zeigen: 𝜑−1 ist ein
Gruppenhomomorphismus.
Seien 𝑎, 𝑏 ∈ 𝐻 mit 𝜑(𝑎′ ) = 𝑎, 𝜑(𝑏′ ) = 𝑏. Dann gilt

𝜑−1 (𝑎) ·𝐺 𝜑−1 (𝑏) = 𝑎′ ·𝐺 𝑏′ = 𝜑−1 (𝜑(𝑎′ ·𝐺 𝑏′ )) = 𝜑−1 (𝜑(𝑎′ ) ·𝐻 𝜑(𝑏′ )) = 𝜑−1 (𝑎 ·𝐻 𝑏).

26
Bemerkung. Ein Gruppenisomorphismus 𝜑 : 𝐺 → 𝐺 heißt Gruppenautomorphismus. Die
Menge Aut(𝐺) aller Gruppenautomorphismen von 𝐺 mit der Verknüpfung

∙ : Aut(𝐺) × Aut(𝐺) → Aut(𝐺)


(𝑔, 𝑓 ) ↦→ 𝑔 ∘ 𝑓

ist wieder eine Gruppe.


Beweis.

1) Wohldefiniert

2) Assoziativität

3) neutrales Element: 𝑖𝑑𝐺

4) Inverse zu 𝑓 ∈ Aut(𝐺) ist 𝑓 −1 ∈ Aut(𝐺).


Key Point: So erhält man viele sehr interessante Gruppen.

5 Körper

Menge → Gruppen → Körper


𝑀 (𝑀, ∙) (𝑀, +, ∙)
∙:𝑀 ×𝑀 →𝑀 +:𝑀 ×𝑀 →𝑀
∙:𝑀 ×𝑀 →𝑀

Definition 5.1
Ein Körper ist ein Tripel (𝐾, +, ∙) bestehend aus einer nichtleeren Menge K und zwei
Verknüpfungen

+: 𝐾 ×𝐾 →𝐾 und ∙: 𝐾 ×𝐾 →𝐾
(𝑥, 𝑦) ↦→ 𝑥 + 𝑦 (𝑥, 𝑦) ↦→ 𝑥 · 𝑦

so dass folgende Bedingungen (Körperaxiome) erfüllt sind:

K1 (𝐾, +) ist eine abelsche Gruppe. Das neutale Element bezeichnen wir mit 0.

K2 (𝐾 * := 𝐾 ∖ {0}, ∙) ist eine abelsche Gruppe. Das neutrale Element bezeichnen wir
mit 1.

K3 Distributivgesetz: Für alle 𝑥, 𝑦, 𝑧 ∈ 𝐾 gilt

(𝑥 + 𝑦) · 𝑧 = (𝑥 · 𝑧) + (𝑦 · 𝑧)
𝑧 · (𝑥 + 𝑦) = (𝑧 · 𝑥) + (𝑧 · 𝑦)

27
Definition 5.2
Ein Ring ist ein Tripel (𝐾, +, ∙) wie in Definition 5.1, das nur K1 und K3 erfüllt und
dessen Multiplikation assoziativ ist.

Beispiel.

1) (R, +, ∙) ist ein Körper.


(Q, +, ∙) ist ein Körper.

2) (Z, +, ∙) ist ein Ring, aber kein Körper.


√ √
3) Q[ 2] = { 𝑟 + 𝑠 2 | 𝑟, 𝑠 ∈ Q } ist ein Körper.

Notation

1) Inverses zu 𝑥 ∈ (𝐾, +) ist −𝑥. Wir schreiben 𝑥 − 𝑦 für 𝑥 + (−𝑦).

2) Inverses zu 𝑥 ∈ (𝐾, ∙) ist 𝑥−1 .

3) 𝑥 ∈ 𝐾, 𝑛 ∈ Z ⎧


⎪ 0 𝑛=0

⎨𝑥 + 𝑥 + ... + 𝑥
⎪ 𝑛>0
𝑛𝑥 =
⏟ ⏞
n-mal

(−𝑥) + (−𝑥) + ... + (−𝑥) 𝑛 < 0




⎩⏟ ⏞
n-mal

4) 𝑥, 𝑦 ∈ 𝐾 * , dann schreiben wir 𝑥𝑦 für 𝑥 · 𝑦.

5) für 𝑥 ∈ 𝐾 * , 𝑛 ∈ N


⎪1 𝑛=0

⎨𝑥 · 𝑥 · ... · 𝑥

𝑛>0
𝑥𝑛 = ⏟ ⏞
n-fach
−1 −1 −1

⎩𝑥
⏟ +𝑥 + ⏞ ... + 𝑥 𝑛<0



n-fach

Lemma 5.3. Sei (𝐾, +, ∙) ein Körper, so gilt ∀𝑥, 𝑦, 𝑧 ∈ 𝐾

1 1 ̸= 0

2 0·𝑥=0=𝑥·0

3 0=𝑥·𝑦 ⇒𝑥=0∨𝑦 =0

4 𝑥 · (−𝑦) = −(𝑥 · 𝑦) (−𝑥) · (−𝑦) = 𝑥 · 𝑦

5 (𝑥 · 𝑧 = 𝑦 · 𝑧 ∧ 𝑧 ̸= 0 ⇒ 𝑥 = 𝑦)

28
Beweis.

zu 1 1 ∈ 𝐾 * = 𝐾 ∖ {0}

zu 2 0 · 𝑥 = (0 + 0) · 𝑥 = 0 · 𝑥 + 0 · 𝑥 = 0 · 𝑥 = 0. Beweis von 𝑥 · 0 = 0 ist analog.


K3 𝑆𝑎𝑡𝑧 4.2

zu 3 Falls 𝑥, 𝑦 ∈ 𝐾 * = 𝐾 ∖ {0}, dann ist 𝑥 · 𝑦 ∈ 𝐾 * .

zu 4 𝑥 · 𝑦 + 𝑥 · (−𝑦) = 𝑥(𝑦 + (−𝑦)) = 𝑥 · 0 = 0 also, 𝑥 · (−𝑦) = −(𝑥 · 𝑦)

(−𝑥) · (−𝑦) = −((−𝑥) · 𝑦) = −(−𝑥 · 𝑦) = 𝑥 · 𝑦

zu 5 Wegen K2 ist (𝐾 * , ∙) eine abelsche Gruppe. Daher gilt die Aussage falls
𝑥, 𝑦 ∈ 𝐾 * = 𝐾 ∖ {0} ∧ 𝑧 ̸= 0. Falls 𝑥 = 0 ist, folgt

𝑥 = 0 ⇒ 0 = 0 · 𝑧 = 𝑦 · 𝑧 = 𝑦 = 0.
3

Also 𝑥 = 𝑦 analog, falls 𝑦 = 0 ist.

Satz 5.4
Wir definieren auf Z/𝑝Z eine Verknüpfung

∙ :Z/𝑝Z × Z/𝑝Z → Z/𝑝Z


([𝑚], [𝑛]) ↦→ [𝑚] · [𝑛] := { 𝑀 𝑁 + 𝑝𝑘 ∈ Z | 𝑀 ∈ [𝑚], 𝑁 ∈ [𝑛], 𝑘 ∈ Z }

Dann gilt [𝑚] · [𝑛] = [𝑚𝑛].


Falls 𝑝 eine Primzahl ist, so ist (Z/𝑝Z, +, ∙) ein Körper. Dieser Körper wird auch F𝑝
genannt.

Beweis.

1 Zeige [𝑚] · [𝑛] = [𝑚 · 𝑛]

[𝑚] · [𝑛] = { (𝑚 + 𝑎𝑝) · (𝑛 + 𝑏𝑝) + 𝑘𝑝 | 𝑎, 𝑏, 𝑘 ∈ Z }


= { 𝑚𝑛 + 𝑝(𝑘 + 𝑚𝑏 + 𝑎𝑛 + 𝑎𝑏𝑝) | 𝑎, 𝑏, 𝑘 ∈ Z }
= { 𝑚𝑛 + 𝑝𝑙 | 𝑙 ∈ Z }
= [𝑚𝑛].

2 Es ist klar, dass (Z/𝑝Z, +) eine abelsche Gruppe ist. Aus K1 für (Z/𝑝Z∖{0}, ∙) folgt
Kommutativität und Assoziativität und aufgrund von K3 ist das Distributivgesetz
klar erfüllt aufgrund der entsprechenden Eigenschaften der Verknüpfungen +, ∙ auf
Z.

29
Das neutrale Element in (Z/𝑝Z ∖ {0}, ∙) ist 1 = [1].
Nun müssen wir noch die Existenz eines inversen Elements zeigen. Hierfür brauchen
wir, dass 𝑝 eine Primzahl ist.
Behauptung: Für jedes 𝑛 ∈ Z/𝑝Z ∖ {0} ist die Abbildung

[𝑛]∙ : Z/𝑝Z → Z/𝑝Z


[𝑎] ↦→ [𝑛] · [𝑎] = [𝑛𝑎]

injektiv.
Sei [𝑛] · [𝑎] = [𝑛] · [𝑏], dann gilt 𝑛(𝑎 − 𝑏) ist durch 𝑝 teilbar. Da 𝑛 =
̸ [0], heißt das
aber, dass (𝑎 − 𝑏) durch 𝑝 teilbar ist, weil 𝑝 eine Primzahl ist. Also folgt [𝑎] = [𝑏].
Da Z/𝑝Z eine endliche Menge ist, ist [𝑛]∙ auch surjektiv, also bijektiv. Insbesondere
gibt es eine Unterabbildung, d.h. ein [𝑛′ ] ∈ Z/𝑝Z ∖ {0}, so dass

[𝑛] · [𝑛′ ] = 1.

Dieses [𝑛′ ] ist das Inverse zu [𝑛].

Bemerkung. Ist 𝑝 nicht prim, so ist Z/𝑝Z kein Körper, aber immer noch ein Ring. Es
gibt dann Nullteiler, d.h. [𝑛], [𝑚] ∈ Z/𝑝Z ∖ {0}, so dass [𝑛] · [𝑚] = 0. Nämlich

𝑝 = 𝑎 · 𝑏 𝑎, 𝑏, ∈ N>1 ,

also [𝑎] ̸= [0], [𝑏] ̸= [0], aber [𝑎] · [𝑏] = [𝑝] = [0].

5.1 Unterkörper und Körperhomomorphismen


Definition 5.5
Sei (𝐾, +, ∙) ein Körper.
Eine Teilmenge 𝐿 ⊂ 𝐾 für die gilt, dass (𝐿, +) ⊂ (𝐾, +) und (𝐿 ∖ {0}, ∙) ⊂ (𝐾 ∖ {0}, ∙)
Untergruppen sind, heißt Unterkörper von K. (𝐿, +, ∙) ist dann selbst wieder ein Körper.

Definition 5.6
Seien (𝐾, +𝐾 , ∙𝐾 ) und (𝐿, +𝐿 , ∙𝐿 ) Körper. Eine Abbildung 𝑓 : 𝐾 → 𝐿, die ungleich der
konstanten Nullabbildung ist, nennt man einen Körperhomomorphismus, falls ∀𝑥, 𝑦 ∈ 𝐾
gilt:

𝑓 (𝑥 +𝐾 𝑦) = 𝑓 (𝑥) +𝐿 𝑓 (𝑦)
𝑓 (𝑥∙𝐾 𝑦) = 𝑓 (𝑥)∙𝐿 𝑓 (𝑦)

Ist 𝑓 bijektiv, so nennt man 𝑓 einen Körperisomorphismus und die Körper isomorph.
Wir schreiben (𝐾, +𝐾 , ∙𝐾 ) ∼
= (𝐿, +𝐿 , ∙𝐿 ).

30
Bemerkung. Seien (𝐾, +𝐾 , ∙𝐾 ) und (𝐿, +𝐿 , ∙𝐿 ) lediglich Ringe, nennt man Abbildungen
𝑓 : 𝐾 → 𝐿 mit diesen Eigenschaften Ringhomomorphismus.

Beispiel.

1) Q ⊂ Q[ 2] ⊂ R

2) Der Gruppenisomorphismus

({+1, −1}, ∙𝐾 ) → Z/2Z


1 ↦→ [0]
−1 ↦→ [1]

ist auch ein Körperisomorphismus.

Lemma 5.7. Sei 𝐾 ein Körper. Dann ist

𝜑:Z→𝐾
𝑛 ↦→ 𝑛 · 1𝐾 = 1𝐾 + 1𝐾 + ... + 1𝐾
⏟ ⏞
𝑛𝑚 𝑎𝑙

ein Ringhomomorphismus.

Definition 5.8
Die Charakteristik eines Körpers 𝐾 ist definiert als
{︃
0 𝑛 · 1𝐾 =
̸ 0 ∀𝑛 ∈ N
char(𝐾) =
𝑚𝑖𝑛{𝑛 ∈ N| 𝑛 · 1𝐾 = 0} sonst

Proposition 5.9

1 Die Charakteristik eines Körpers ist 0 oder eine Primzahl.



2 char(Q) = char(Q[ 2]) = char(R) = 0

3 Sei 𝑝 eine Primzahl, dann ist die Charakteristik von F𝑝 gleich 𝑝

Beweis.
zu 1 Nehme an char(𝐾) = 𝑎 · 𝑏 𝑎, 𝑏 ∈ N>1 . Dann gilt nach Lemma 5.7

0 = 𝜑(𝑎𝑏) = 𝜑(𝑎) ∙
𝐾 𝜑(𝑏) =======⇒ 𝜑(𝑎) = 0 oder 𝜑(𝑏) = 0
𝐿𝑒𝑚𝑚𝑎 5.7

Dies ist ein Widerspruch zur Definition der char(𝑘).

31
zu 2 für alle 𝑛 ∈ 𝑁 gilt
𝑛 · 1 = 𝑛 ̸= 0

zu 3 in F𝑝 gilt 𝑛 · [1] = [𝑛]


[𝑛] ist gleich 0F𝑝 = [0] genau dann wenn 𝑛 ∈ 𝑝 · Z, also char(F𝑝 ) = 𝑝.

Bemerkung. Für jede Primzahl 𝑝 haben wir F𝑝 konstruiert mit 𝑝 Elementen.


Diese Konstuktion kann man verallgemeinern: Zu jeder Primzahl 𝑝 und jedem 𝑛 ∈ N
lässt sich ein Körper F𝑞 mit 𝑞 = 𝑝𝑛 Elementen konstruieren.
Jeder endliche Körper ist isomorph zu einem solchen Körper F𝑞 .

5.2 Die Komplexen Zahlen


Die Menge R × R = { (𝑥, 𝑦) | 𝑥, 𝑦 ∈ R } mit den Verknüpfungen
(𝑎, 𝑏) + (𝑐, 𝑑) := (𝑎 + 𝑐, 𝑏 + 𝑑)
(𝑎, 𝑏) · (𝑐, 𝑑) := (𝑎𝑐 − 𝑏𝑑, 𝑎𝑑 + 𝑏𝑐)
ist ein Körper.
Man nennt diesen Körper den Körper der komplexen Zahlen und bezeichnet ihn mit C.
Bemerkung.
0 = (0, 0)
1 = (1, 0)
−(𝑥, 𝑦) = (−𝑥, −𝑦)
(︂ )︂
𝑥 −𝑦
(𝑥, 𝑦)−1 = , für (𝑥, 𝑦) ̸= (0, 0)
𝑥2 + 𝑦 2 𝑥2 + 𝑦 2

1 Die Abbildung R → C, 𝑥 ↦→ (𝑥, 0) ist injektiver Körperhomomorphismus. Er


identifiziert R als Unterkörper von C.
R = { (𝑥, 0) | 𝑥 ∈ R } ⊂ C

2 Definier die imaginäre Einheit 𝑖 := (0, 1). Jede komplexe Zahl 𝑧 ∈ C lässt sich
schreiben als
𝑧 = (𝑥, 𝑦) = 𝑥 + 𝑖𝑦 = 𝑥 · (1, 0) + 𝑦 · (0, 1) = 𝑥 · 1𝐾 + 𝑖𝑦 = 𝑥 + 𝑖𝑦
Wir nennen
𝑥 = 𝑅𝑒(𝑧) den Realteil von 𝑧
𝑦 = 𝐼𝑚(𝑧) den Imaginärteil von 𝑧
Die imaginäre Einheit 𝑖 erfüllt:
𝑖2 = −1.

32
3 Die Abbildung
C→C
𝑧 = 𝑥 + 𝑖𝑦 ↦→ 𝑧¯ = 𝑥 − 𝑖𝑦
heißt komplexe Konjugation.
4 Proposition: Die komplexe Konjugation ist ein Körperhomomorphismus.

Insbesondere gilt: 𝑧 + 𝑤 = 𝑧¯ + 𝑤 ¯
𝑧𝑤 = 𝑧¯ · 𝑤¯
Weiterhin gilt: 𝑧¯ = 𝑧
𝑧 = 𝑧¯ ⇔ 𝑧 ∈ R ⊂ C
Wir haben
1
𝑅𝑒(𝑧) = (𝑧 + 𝑧¯)
2
1
𝐼𝑚(𝑧) = (𝑧 − 𝑧¯)
2𝑖
𝑧 𝑧¯ = 𝑥2 + 𝑦 2 ∈ R≥0 für alle 𝑧 = 𝑥 + 𝑖𝑦

5 Definition: Der Absuloutbetrag einer komplexen Zahl 𝑧 ∈ C ist definiert als



|𝑧| = 𝑧 · 𝑧¯
√︀
|𝑧| = |𝑥 + 𝑖𝑦| = 𝑥2 + 𝑦 2
Es gilt: |𝑧𝑤| = |𝑧||𝑤|

𝑧 | = |𝑧|
|𝑧 + 𝑤| ≤ |𝑧| + |𝑤| Dreiecksungleichung

6 Identifikation der komplexen Zahlen mit der Gaußschen Zahlenebene

𝑦 𝑧·𝑤

|𝑧||𝑤|
𝐼𝑚(𝑧) - 𝑧 = (𝑥, 𝑦) = 𝑥 + 𝑖𝑦

𝑤
𝛼 = 𝑎𝑟𝑔(𝑧)
𝛽 = 𝑎𝑟𝑔(𝑤)
| 𝑥
𝑅𝑒(𝑧)

𝑧¯ = (𝑥, −𝑦) = 𝑥 − 𝑖𝑦

33
7 Sei 𝑧 ∈ C ∖ {0}, 𝑧 = 𝑥 + 𝑖𝑦,
⃒𝑧 ⃒
⃒ ⃒=1 d.h. es gibt ein eindeutiges 𝑎 ∈ [0, 2𝜋), sodass
|𝑧|

=
𝑥2 + 𝑦 2
𝑧 = |𝑧|(cos 𝛼 + 𝑖 sin 𝛼).
|𝑧|2
Dieses 𝛼 nennt man Argument von 𝑧, man schreibt 𝛼 = 𝑎𝑟𝑔(𝑧).
8 Die Eulersche Formel besagt
cos 𝛼 + 𝑖 sin 𝛼 = 𝑒𝑖𝛼
d.h.
𝑧 = |𝑧|𝑒𝑖 𝑎𝑟𝑔(𝑧)

Es gilt 𝑒𝑖𝛼 · 𝑒𝑖𝛽 = 𝑒𝑖(𝛼+𝛽) also


𝑧 · 𝑤 = |𝑧|𝑒𝑖 𝑎𝑟𝑔(𝑧)
· |𝑤|𝑒𝑖 𝑎𝑟𝑔(𝑤)

= |𝑧||𝑤|𝑒𝑖(𝑎𝑟𝑔(𝑧)+𝑎𝑟𝑔(𝑤))

9 Allgemein gilt:
Proposition:
Sei 𝐾 ein Körper und 𝜏 ∈ 𝐾 sodass 𝑥2 = 𝜏 keine Lösung in 𝐾 hat. Dann ist die
Menge 𝐿 = {𝐾 × 𝐾} mit der Addition
(𝑎, 𝑏) + (𝑐, 𝑑) = (𝑎 + 𝑐, 𝑏 + 𝑑)
und der Multiplikation
(𝑎, 𝑏) · (𝑐, 𝑑) = (𝑎𝑐 + 𝑏𝑑𝜏, 𝑎𝑑 + 𝑏𝑐)

wieder ein Körper. Man nennt das Element (0, 1) auch die Wurzel von 𝜏, 𝜏 , denn
(0, 1) · (0, 1) = (𝜏, 0).

Wir schreiben

𝐿 = 𝐾( 𝜏 )

(𝑎, 𝑏) = 𝑎 + 𝑏 𝜏

Beispiel. √
C = R( −1) 𝜏 = −1
C ist ein algebraisch abgeschlossener Körper, d.h. jede polynomiale Gleichung
z.B. 𝑥3 + 5𝑥2 + 3𝑥 = 0
hat eine Lösung.
Bemerkung. 𝑥3 + 5𝑥2 + 3𝑥 = 0 hat auch eine Lösung über R, aber z.B. 𝑥2 = −1
nicht.

34
6 Vektorräume
6.1 Definition
Definition 6.1
Sei 𝐾 ein Körper.
Ein Vektorraum über 𝐾 ist eine abelsche Gruppe (𝑉, +) zusammen mit einer Verknüpfung

∙ : 𝐾 ×𝑉 →𝑉
(𝑘, 𝑣) ↦−→ 𝑘 · 𝑣

V1 Für alle 𝑘, 𝑙 ∈ 𝐾, 𝑣 ∈ 𝑉 gilt:


𝑘 · (𝑙 · 𝑣) = (𝑘𝑙) · 𝑣.

V2 Das 1-Element in 𝐾 wirkt trivial auf 𝑉 , d.h.


1·𝑣 =𝑣 für alle 𝑣 ∈ 𝑉

V3 Für alle 𝑘, 𝑙 ∈ 𝐾, 𝑣, 𝑤 ∈ 𝑉 gilt:


(𝑘 + 𝑙) · 𝑣 = 𝑘 · 𝑣 + 𝑙 · 𝑣
𝑘 · (𝑣 + 𝑤) = 𝑘 · 𝑣 + 𝑘 · 𝑤

Wir nennen 𝑉 auch einen 𝐾-Vektorraum.


Wir nennen + die Vektorraum-Addition
und · die skalare Multiplikation.

Achtung: Wir verwenden + sowohl für die Vektorraum-Addition als auch für die Addition
in 𝐾 und ∙ für die skalare Multiplikation als auch für die Multiplikation in 𝐾.
Was gemeint ist, ergibt sich aus den involvierten Objekten.

Beispiel.

1) Sei 𝐾 ein Körper. Betrachte

𝐾 𝑛 = 𝐾 × · · · × 𝐾 = {(𝑥1 , . . . , 𝑥𝑛 ) | 𝑥𝑖 ∈ 𝐾 für alle 1 ≤ 𝑖 ≤ 𝑛}

mit Vektorraum-Addition

(𝑥1 , . . . , 𝑥𝑛 ) + (𝑦1 , . . . , 𝑦𝑛 ) = (𝑥1 + 𝑦1 , . . . , 𝑥𝑛 + 𝑦𝑛 )

und skalalrer Multiplikation

𝑘 · (𝑥1 , . . . , 𝑥𝑛 ) = (𝑘𝑥1 , . . . , 𝑘𝑥𝑛 ).

Dies ist ein 𝐾-Vektorraum.

35
2) Sei 𝑛 = 0, dann ist 𝐾 0 = 0 ein Vektorraum, der Nullvektorraum.

3) Sei 𝐾 ein Körper und 𝑋 eine Menge. Die Menge der Abbildungen Abb(𝑋, 𝐾) von
𝑋 nach 𝐾 mit der Vektorraum Addition

+ : Abb(𝑋, 𝐾) × Abb(𝑋, 𝐾) → Abb(𝑋, 𝐾)


(𝑓, 𝑔) ↦→ 𝑓 + 𝑔
(𝑓 + 𝑔)(𝑥) = 𝑓 (𝑥) + 𝑔(𝑥)

und skalarer Multiplikation

∙ : 𝐾 × Abb(𝑋, 𝐾) → Abb(𝑋, 𝐾)
(𝑘, 𝑓 ) ↦→ 𝑘 · 𝑓
(𝑘 · 𝑓 )(𝑥) = 𝑘 · 𝑓 (𝑥)

ist ein 𝐾-Vektorraum.

4) Die komplexen Zahlen C sind ein Vektorraum über R.

5) Sei 𝑉 ein 𝐾-Vektorraum und 𝐿 ⊂ 𝐾 ein Unterkörper, dann ist 𝑉 ein 𝐿-Vektorraum.

6) Seien 𝑉, 𝑊 zwei 𝐾-Vektorräume, dann ist

𝑉 ⊕ 𝑊 = {(𝑣, 𝑤) | 𝑣 ∈ 𝑉, 𝑤 ∈ 𝑊 }

mit

(𝑣, 𝑤) + (𝑣 ′ , 𝑤′ ) := (𝑣 + 𝑣 ′ , 𝑤 + 𝑤′ )
𝑘 · (𝑣, 𝑤) := (𝑘 · 𝑣, 𝑘 · 𝑤)

ist ein 𝐾-Vektorraum.

Bemerkung.
𝐾 ⊕ 𝐾 ⊕ · · · ⊕ 𝐾 = 𝐾 𝑛.

Lemma 6.2. In einem 𝐾-Vektorraum 𝑉 gilt:

1 0𝐾 · 𝑣 = 0 für alle 𝑣 ∈ 𝑉

2 𝑘·0=0 für alle 𝑘 ∈ 𝐾

3 Sei 𝑘 ∈ 𝐾, 𝑣 ∈ 𝑉 . Dann gilt


𝑘 · 𝑣 = 0 ⇔ (𝑘 = 0 ∨ 𝑣 = 0)

4 (−𝑘) · 𝑣 = −(𝑘 · 𝑣) für alle 𝑘 ∈ 𝐾, 𝑣 ∈ 𝑉 .

36
Beweis.

zu 1
0𝐾 · 𝑣 = (0𝐾 + 0𝐾 ) · 𝑣 = 0𝐾 · 𝑣 + 0𝐾 · 𝑣
V3

Da (𝑉, +) eine Gruppe ist, gilt daher 0𝐾 · 𝑣 = 0 (da das rechtsneutrale Element
eindeutig ist).

zu 2
𝑘 · 0 = 𝑘 · (0 + 0) = 𝑘 · 0 + 𝑘 · 0
V3

da (𝑉, +) eine Gruppe ist, folgt 𝑘 · 0 = 0.

zu 3 Aus 1 und 2 folgt die Richtung „⇐“. Wir zeigen nun „⇒“.
Sei 𝑘 · 𝑣 = 0, aber 𝑘 ̸= 0. Dann gilt

𝑣 = 1𝐾 · 𝑣 = (𝑘 −1 𝑘) · 𝑣 = 𝑘 −1 · (𝑘 · 𝑣) = 𝑘 −1 · (0) = 0.
V1 2

zu 4
(𝑘 · 𝑣) + (−𝑘) · 𝑣 = (𝑘 + (−𝑘)) · 𝑣 = 0𝐾 · 𝑣 = 0
V3 1

Daher folgt (−𝑘) · 𝑣 = −(𝑘 · 𝑣).

6.2 Untervektorräume
Definition 6.3
Sei 𝑉 ein 𝐾-Vektorraum.
Eine Teilmenge 𝑊 ⊂ 𝑉 heißt Untervektorraum von 𝑉 falls gilt:

1 𝑊 ̸= ∅

2 𝑣, 𝑤 ∈ 𝑊 ⇒𝑣+𝑤 ∈𝑊 (Abgeschlossenheit der Addition)

3 𝑘 ∈ 𝐾, 𝑣 ∈ 𝑊 ⇒ 𝑘 · 𝑣 ∈ 𝑊 (Abgeschlossenheit der skalaren Multiplikation)

Bemerkung. Sei 𝑊 ⊂ 𝑉 ein Untervektorraum. Dann gilt:

1 𝑊 mit der Einschränkung von


+ auf 𝑊 × 𝑊 und
∙ auf 𝐾 × 𝑊
ist ein Vektorraum über 𝐾.

2 (𝑊, +) ⊂ (𝑉, +) ist eine Untergruppe.

37
Beispiel.

1 {0} ist ein Untervektorraum eines jeden Vektorraums.

2 Betrachte C als R-Vektorraum. Dann ist R ⊂ C ein Untervektorraum.

3 Sei 𝑉 ein 𝐾-Vektorraum. 0 ̸= 𝑣 ∈ 𝑉 Dann ist


𝑘 · 𝑣 = {𝑘 · 𝑣 | 𝑘 ∈ 𝐾} ⊂ 𝑉 ein Untervektorraum.

4 Seien 𝑎, 𝑏 ∈ R
𝑊𝑎,𝑏 = {(𝑥, 𝑦) ∈ R2 | 𝑎𝑥 + 𝑏𝑦 = 0} ist ein Untervektorraum von R2 .

5 Sei 𝑉 = Abb(𝑋, 𝐾).


Sei 𝑌 ⊂ 𝑋 eine nichtleere Teilmenge. Dann ist
𝑊 := {𝑓 ∈ Abb(𝑋, 𝐾) | 𝑓 (𝑦) = 0 für alle 𝑦 ∈ 𝑌 } ein Untervektorraum.

Keine Beispiele (zu Beispiel 4):

𝑊 = {(𝑥, 𝑦) ∈ R2 | 𝑥2 = 𝑦} ⊂ R2

𝑊 = {(𝑥, 𝑦) ∈ R2 | 𝑥2 + 𝑦 2 = 1} ⊂ R2

sind nicht abgeschlossen bezüglich der Addition und der skalaren Multiplikation.

Satz 6.4
Sei 𝑉 ein 𝐾-Vektorraum, 𝐼 eine Indexmenge. Seien 𝑊𝑖 ⊂ 𝑉 Untervektorräume für alle
𝑖 ∈ 𝐼. Dann ist ⋂︁
𝑊 = 𝑊𝑖 = { 𝑤 | 𝑤 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼}
𝑖∈𝐼

ein Untervektorraum.

Beweis.

1 𝑊𝑖 ⊂ 𝑉 ist ein Untervektorraum

⇒ 0 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼
⇒ 0 ∈ 𝑊, also 𝑊 ̸= ∅

2 Seien 𝑣, 𝑤 ∈ 𝑊 ⇒ 𝑣, 𝑤 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼.

⇒ 𝑣 + 𝑤 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼
𝑊𝑖 Unter-
vektorraum

⇒ 𝑣+𝑤 ∈𝑊 .

38
3 Sei 𝑣 ∈ 𝑊 ⇒ 𝑣 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼

⇒ für alle 𝑘 ∈ 𝐾 gilt 𝑘 · 𝑣 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼


𝑊𝑖 Unter-
vektorraum

⇒ 𝑘 · 𝑣 ∈ 𝑊 für alle 𝑘 ∈ 𝐾 .

Vorsicht: Die Vereinigung von Untervektorräumen ist im Allgemeinen kein Untervektor-


raum, z.B.

𝑊1 = R · (1, 0)
𝑊2 = R · (0, 1)
0 ̸= 𝑤1 ∈ 𝑊1 , 0 ̸= 𝑤2 ∈ 𝑊2

dann ist 𝑤1 + 𝑤2 ∈
/ 𝑊1 ∪ 𝑊2 .

Lemma 6.5. Seien 𝑊1 , 𝑊2 ⊂ 𝑉 Untervektorräume. Ist 𝑊1 ∪ 𝑊2 ein Untervektorraum,


dann gilt
𝑊1 ⊂ 𝑊2 oder 𝑊2 ⊂ 𝑊1 .

Beweis.
Wir nehmen an: 𝑊1 ̸= 𝑊2 . Sei 𝑤2 ∈ 𝑊2 und 𝑤1 ∈ 𝑊1 ∖ 𝑊2 . Dann gilt

𝑤2 , 𝑤1 ∈ 𝑊1 ∪ 𝑊2 ⇒ 𝑤1 + 𝑤2 ∈ 𝑊1 ∪ 𝑊2 ,

aber 𝑤1 + 𝑤2 ist nicht in 𝑊2 , da sonst 𝑤1 + 𝑤2 + (−𝑤2 ) = 𝑤1 ∈ 𝑊2 , also muss 𝑤1 + 𝑤2


in 𝑊1 sein, 𝑤1 + 𝑤2 ∈ 𝑊1 . Dann gilt aber

𝑤2 = 𝑤1 + 𝑤2 + (−𝑤1 ) ∈ 𝑊1 ⇒ 𝑊2 ⊂ 𝑊1

6.3 Erzeugendensystem, lineare Unabhängigkeit, Basen


Im Folgenden ist 𝑉 ein Vektorraum über 𝐾.

Definition 6.6
Seien 𝑣1 , . . . , 𝑣𝑛 ∈ 𝑉 . Ein Vektor 𝑤 ∈ 𝑉 ist eine Linearkombination von 𝑣1 , . . . , 𝑣𝑛 , falls
es 𝑘1 , . . . , 𝑘𝑛 ∈ 𝐾 gibt, so dass

𝑤 = 𝑘1 𝑣1 , . . . , 𝑘𝑛 𝑣𝑛

Wir schreiben auch 𝑛


∑︁
𝑤= 𝑘𝑖 𝑣𝑖
𝑖=1

39
Definition 6.7
Für eine Teilmenge 𝑆 ⊂ 𝑉 sei

ℒ(𝑆) := {𝑣 ∈ 𝑉 | 𝑣 ist eine Linearkombination von Vektoren in 𝑆 }


ℒ(∅) := {0}

Wir nennen ℒ(𝑆) die lineare Hülle von 𝑆 oder auch den von 𝑆 erzeugten
Untervektorraum von 𝑉 oder auch den Spann von 𝑆 (geschreiben Span(𝑆)).
ℒ ist offensichtlich ein Untervektorraum von 𝑉 . ℒ(𝑆) ist der kleinste Unterraum von 𝑉 ,
der 𝑆 enthält (Proposition 6.8). Daher gilt: Ist 𝑈 ein Untervektorraum von 𝑉 , dann ist
ℒ(𝑈 ) = 𝑈 .

Beispiel.

R3
𝑒1 = (1, 0, 0)
𝑒2 = (0, 1, 0)
𝑤 = (𝑎, 𝑏, 0) 𝑎, 𝑏 ∈ R
= 𝑎 · 𝑒1 + 𝑏 · 𝑒2 Linearkombination von 𝑒1 , 𝑒2

𝑤 = (0, 0, 1) ist keine Linearkombination von 𝑒1 , 𝑒2

Proposition 6.8
Sei 𝑆 ⊂ 𝑉 eine Teilmenge.
Sei
𝑊𝑆 := { 𝑈 | 𝑈 ist ein Untervektorraum von 𝑉 , der 𝑆 enthält }.
Dann ist ⋂︁
𝑈 = ℒ(𝑆).
𝑈 ∈𝑊𝑆

Beweis.
Zum einen gilt ℒ(𝑆) ∈ 𝑊𝑆 , daher
⋂︁
𝑈 ⊂ ℒ(𝑆).
𝑈 ∈𝑊𝑆

Andererseits, sei 𝑣 ∈ ℒ(𝑆). Dann gilt 𝑣 ist eine Linearkombination von Elementen in 𝑆,
also 𝑣 ∈ 𝑈 für alle 𝑈 ∈ 𝑊𝑆 (da 𝑈 ein Untervektorraum ist, der 𝑆 enthällt).
Also gilt ⋂︁ ⋂︁
𝑣∈ 𝑈, also ℒ(𝑆) ⊂ 𝑈.
𝑈 ∈𝑊𝑆 𝑈 ∈𝑊𝑆

Daher ⋂︁
ℒ(𝑆) = 𝑈.
𝑈 ∈𝑊𝑆

40
Lemma 6.9. Die lineare Hülle hat folgende Eigenschaften

1 𝑆 ⊂ ℒ(𝑆)

2 Falls 𝑆 = ℒ(𝑆) ⇒ 𝑆 ist ein Untervektorraum von 𝑉

3 ℒ(ℒ(𝑆)) = ℒ(𝑆)

Definition 6.10
Eine Teilmenge 𝑆 ∈ 𝑉 heißt Erzeugendensystem von 𝑉 , falls ℒ(𝑆) = 𝑉 . Ein Vektorraum
𝑉 ist endlich erzeugt, falls es eine endliche Teilmenge 𝑇 ⊂ 𝑉 gibt, so dass ℒ(𝑇 ) = 𝑉 .
Beispiel.

𝑉 = R3
𝑆 = {𝑒1 , 𝑒2 } 𝑒1 = (1, 0, 0), 𝑒2 = (0, 1, 0)
ist kein Erzeugendensystem.
𝑇 = {𝑒1 , 𝑒2 , 𝑒3 } 𝑒1 = (1, 0, 0), 𝑒2 = (0, 1, 0), 𝑒3 = (0, 0, 1)
ist ein Erzeugendensystem.

𝑇 = {𝑒1 , 𝑒2 , 𝑒3 , 𝑣} 𝑒1 = (1, 0, 0), 𝑒2 = (0, 1, 0), 𝑒3 = (0, 0, 1), 𝑣 = (1, 1, 5)
ist ein Erzeugendensystem.

Definition 6.11
Sei 𝑆 ⊂ 𝑉 eine Teilmenge.

1 Ein Vektor 𝑣 ∈ 𝑉 ist linear abhängig von S, falls 𝑣 ∈ ℒ(𝑆). Andernfalls, also wenn
𝑣∈/ ℒ(𝑆), ist der Vektor 𝑣 linear unabhängig von 𝑆.

2 Eine Teilmenge 𝑆 ⊂ 𝑉 heißt linear unabhängig, falls für alle 𝑣 ∈ 𝑆 gilt:


𝑣 ist linear unabhängig von 𝑆 ∖ {0}

Beispiel.

1 Sei 𝑣 ∈ 𝑉 . Dann ist {𝑣} ⊂ 𝑉 linear unabhängig genau dann, wenn 𝑣 ̸= 0.

2 Sei 𝑣 ∈ 𝑉 . Dann ist 𝑘 · 𝑣, 𝑘 ∈ 𝐾 linear abhängig von {𝑣}.

3 Betrachte die Vektoren 𝑒1 = (1, 0, 0), 𝑒2 = (0, 1, 0) in R3 . Dann ist 𝑆 = {𝑒1 , 𝑒2 }


linear unabhängig, aber (1, −1, 0) = 𝑒1 − 𝑒2 ist linear abhängig von 𝑆.
Sei 𝑒3 = (0, 0, 1).
𝑆 = {𝑒1 , 𝑒2 , 𝑒3 } ist linear unabhängig. Der Vektor 𝑣 = (𝑎, 𝑏, 𝑐) ∈ R3 ist linear
abhängig von 𝑆 für alle 𝑎, 𝑏, 𝑐 ∈ R.

41
Lemma 6.12. Sei 𝑆 ⊂ 𝑉 eine Teilmenge. Dann sind folgende Aussagen äquivalent:
1 𝑆 ist linear unabhängig

2 Wichtiges Kriterium: Für alle 𝑛 ∈ 𝑁 , für alle 𝑘1 , . . . , 𝑘𝑛 ∈ 𝐾 gilt:


𝑛
∑︁
𝑘𝑖 𝑣𝑖 = 𝑘1 𝑣1 + · · · + 𝑘𝑛 𝑣𝑛 = 0 ⇒ 𝑘1 = 𝑘2 = · · · = 𝑘𝑛 = 0
𝑖=1

3 Für jedes 0 ̸= 𝑤 ∈ ℒ(𝑆) ist die Darstellung als Linearkombination 𝑤 = 𝑛𝑖=1 𝑘𝑖 𝑣𝑖


∑︀
mit 𝑉𝑖 ∈ 𝑆 paarweise verschieden und 𝑘𝑖 ∈ 𝐾 bis auf Vertauschung der Reihenfolge
eindeutig.
D.h. falls 𝑤 = 𝑛𝑖=1 𝑘𝑗′ 𝑣𝑗′ für paarweise verschiedene 𝑣𝑗′ ∈ 𝑆 und 𝑘𝑗′ ∈ 𝐾, dann gilt
∑︀
𝑚 = 𝑛 und es existiert eine Permutation 𝜎 ∈ 𝑆𝑛 von {1, . . . , 𝑛}, so dass

𝑣𝑖′ = 𝑣𝜎(𝑖) 𝑘𝑖′ = 𝑘𝜎(𝑖) .

Beweis.

1 ⇒ 2 : Nehme an 2 gilt nicht, d.h. ∃𝑛 ∈ N, 0 ̸= 𝑣𝑖 ∈ 𝑆 paarweise verschieden, 𝑘𝑖 ∈ 𝐾 * =


𝐾 ∖ {0} mit
𝑛
∑︁
𝑘𝑖 𝑣𝑖 = 0
𝑖=1

Daher gilt
𝑛
∑︁
𝑣1 = − (𝑘1 −1 𝑘𝑖 )𝑣𝑖 , also 𝑣1 ∈ ℒ(𝑆 ∖ {𝑣1 }).
𝑖=2

Also ist 𝑆 nicht linear unabhängig, also gilt 1 nicht. Daher (¬ 2 ⇒¬ 1 ).

2 ⇒ 1 : Nehme an, 1 gilt nicht. Dann gibt es 𝑣1 ∈ 𝑆 der linear abhängig von 𝑆 ∖ {𝑣1 } ist.
Also gibt es Vektoren 𝑣2 , . . . , 𝑣𝑛 ∈ 𝑆 ungleich 𝑣1 und 𝑘2 , . . . , 𝑘𝑛 ∈ 𝐾, so dass
𝑛
∑︁
𝑣1 = 𝑘𝑖 𝑣𝑖
𝑖=1

Mit 𝑘1 = −1 gilt also


𝑛
∑︁
𝑘𝑖 𝑣𝑖 = 0,
𝑖=1

wobei nicht alle 𝑘𝑖 null sind. Also gilt 2 nicht, also (¬ 1 ⇒¬ 2 ).

2 ⇒ 3 : Nehme an 3 gilt nicht, d.h. es gibt ein 0 ̸= 𝑤 ⊂ ℒ(𝑆) mit zwei Darstellungen
𝑚
∑︁ 𝑛
∑︁
𝑘𝑗′ 𝑣𝑗′ =𝑤= 𝑘𝑖 𝑣𝑖 ,
𝑗=1 𝑖=1

42
die nicht Permutationen voneinander sind. Betrachte

{𝑣1 , . . . 𝑣𝑛 } ∪ {𝑣1′ , . . . 𝑣𝑚

}

und definieren 𝑣^1 , . . . 𝑣^𝑘 paarweise verschieden, so dass

{𝑣1 , . . . 𝑣𝑛 } ∪ {𝑣1′ , . . . 𝑣𝑚

} = {^
𝑣1 , . . . 𝑣^𝑘 }.

Dann gilt
𝑚
∑︁ 𝑛
∑︁ 𝑘
∑︁
0= 𝑘𝑗′ 𝑣𝑗′ − 𝑘𝑖 𝑣𝑖 = 𝑘^𝑙 𝑣^𝑙 .
𝑗=1 𝑖=1 𝑙=1

Da beide Darstellungen keine Permutationen voneinander waren, gilt, dass zumin-


dest einige der Summanden ungleich null sind. Also gilt 2 nicht, also (¬ 3 ⇒ ¬ 2 ).

3 ⇒ 2 : Gilt 2 nicht, so gibt es 𝑛 > 1 paarweise verschiedene 𝑣𝑖 ∈ 𝑆, 1 ≤ 𝑖 ≤ 𝑛, und


𝑘𝑖 ∈ 𝐾, so dass
𝑛
∑︁
𝑘𝑖 𝑣𝑖 = 0,
𝑖=1

wobei mindestens ein 𝑘𝑖 von 0𝑘 verschieden ist. Wir können ohne Beschränkung
der Allgemeinheit (OBdA) annhemen, dass 𝑘1 ̸= 0. Dann gilt
𝑛
∑︁
0 ̸= 𝑤 = 𝑘1 𝑣1 = − 𝑘𝑖 𝑣𝑖 .
𝑖=2

Also hat 𝑤 zwei unterschiedliche, nicht durch Permutationen ineinander über-


führbare Darstellungen als Linearkombination der 𝑣𝑖 ∈ 𝑆. Also gilt 3 nicht, also
(¬ 2 ⇒ ¬ 3 ).

Definition 6.13
𝑆 ⊂ 𝑉 ist linear unabhängig und 0 ̸= 𝑣 ∈
/ ℒ(𝑆). Dann ist 𝑆 ′ = 𝑆 ∪ {𝑣} linear unabhängig.
Beweis.
Falls 𝑆 ′ nicht linear unabhängig wäre, so gäbe es 𝑘, 𝑘1 , . . . , 𝑘𝑖 ∈ 𝐾, die nicht alle null
sind und 𝑣𝑖 ∈ 𝑆 paarweise verschieden mit
𝑛
∑︁
𝑘𝑣 + 𝑘𝑖 𝑣𝑖 = 0.
𝑖=1

Falls 𝑘 = 0, so folgt aus der linearen Unabhängigkeit von 𝑆, dass 𝑘𝑖 = 0 für alle 1 ≤ 𝑖 ≤ 𝑛.
Also 𝑘 ̸= 0 und
𝑛
∑︁
𝑣= −𝑘 −1 𝑘𝑖 𝑣𝑖 .
𝑖=1

Das bedeutet aber 𝑣 ∈ ℒ(𝑆). Dies ist ein Widerspruch zur Annahme.

43
Definition 6.14
Eine Teilmenge 𝑆 ⊂ 𝑉 heißt Basis von 𝑉 , wenn 𝑆 ein linear unabhängiges Erzeugenden-
system von 𝑉 ist.

Proposition 6.15
Eine Teilmenge 𝑆 ⊂ 𝑉 ist eine Basis genau dann, wenn sich jedes Element eindeutig (bis
auf Permutation) schreiben lässt als
𝑛
∑︁
𝑉 = 𝑘𝑖 𝑣𝑖
𝑖=0

wobei die 𝑣𝑖 ∈ 𝑆 paarweise verschieden sind und 𝑘𝑖 ∈ 𝐾.

Beweis.

„⇒“ Sei 𝑆 eine Basis, dann ist 𝑆 ein Erzeugendensystem, also lässt sich 𝑣 schreiben als
𝑛
∑︁
𝑣= 𝑘𝑖 𝑣𝑖
𝑖=1

Nun wissen wir aber nicht nur, dass 𝑆 ein Erzeugendensystem ist, sondern wir
wissen auch, dass 𝑆, weil es eine Basis ist, linear unabhängig ist.
𝑆 ist auch linear unabhängig, also folgt mit dem Lemma 6.12, dass diese Darstellung
eindeutig (bis auf Permutation) ist.
Damit haben wir die eine Richtung bewiesen. Wenn 𝑆 eine Basis ist, dann können
wir jedes Element eindeutig als Linearkombination von paarweise verschiedenen
Elementen aus 𝑆 schreiben.

„⇐“ Hat umgekehrt jedes 𝑣 ∈ 𝑉 eine solche Darstellung, so ist 𝑆 ein Erzeugendensystem.
Aus der Eindeutigkeit (bis auf Permutation) folgt mit dem Lemma 6.12, dass es
linear unabhängig ist. Also ist 𝑆 eine Basis.

Lemma 6.16. Für 𝑛 ∈ N, betrachte den Vektorraum 𝐾 𝑛 . Definiere die Vektoren

𝑒𝑖 = (0, . . . , 0, 1, 0, . . . , 𝑝) für 1 ≤ 𝑖 ≤ 𝑛

deren Einträge 0 sind außer an der 𝑖-ten Stelle, wo der Eintrag 1 ist. Dann ist die Menge
𝐵 = {𝑒1 , . . . , 𝑒𝑛 } eine Basis von 𝐾 𝑛 . Wir nennen 𝐵 die Standardbasis.

Beweis.
Die Menge 𝐵 erzeugt 𝐾 𝑛 , denn
𝑛
∑︁
(𝑘1 , ..., 𝑘𝑛 ) = 𝑘𝑖 𝑒𝑖
𝑖=1

44
Jedes Element in 𝐾 𝑛 ist ein 𝑛-Tupel ∑︀
(𝑘 1 , ..., 𝑘 𝑛 ). Dieses 𝑛-Tupel ist ganz klar die Linear-
kombination, die gegeben ist durch 𝑛𝑖=1 𝑘𝑖 𝑒𝑖 . Damit haben wir gezeigt, die Menge 𝐵
erzeugt 𝐾 𝑛 .
Die Menge 𝐵 ist linear unabhängig, denn
𝑛
∑︁
𝑘𝑗 ∈𝐾

ℒ(𝐵 ∖ {𝑒𝑖 }) = { 𝑘𝑗 𝑒𝑗 | 𝑘𝑗 ∈ 𝐾} = {(𝑘1 , . . . , 𝑘𝑛 ) ⃒ 𝑘𝑖 =0 },
𝑗=1
𝑗̸=𝑖

also 𝑒𝑖 ∈
/ ℒ(𝐵 ∖ {𝑒𝑖 }) für alle 1 ≤ 𝑖 ≤ 𝑛. Also ist 𝐵 linear unabhängig.

Lemma 6.17. Sei 𝑆 ⊂ 𝑉 eine endliche Teilmenge, die 𝑉 erzeugt. Dann gibt es eine
Teilmenge 𝐵 ⊂ 𝑉 , die eine Basis von 𝑉 ist.

Beweis.
Sei 𝑀 eine Menge aller Teilmengen von 𝑆, die 𝑉 erzeugen, also

𝑀 := {𝑈 ⊂ 𝑆 | ℒ(𝑈 ) = 𝑉 }.

Dann ist 𝑀 nicht leer, da 𝑆 ∈ 𝑀 und 𝑀 besteht aus endlichen Mengen. Sei 𝐵 ∈ 𝑀 eine
Teilmenge von 𝑆 mit der kleinsten Anzahl von Elementen, d.h.

|𝐵| ≤ |𝑈 | für alle 𝑈 ∈ 𝑀.

Behauptung: Dann ist 𝐵 linear unabhängig.


Wäre dem nicht so, so gäbe es ein 𝑏 ∈ 𝐵

mit 𝑏 ∈ ℒ(𝐵 ∖ {𝑏})


und 𝐵 ′ = 𝐵 ∖ {𝑏} ∈ 𝑀
Denn

ℒ(𝐵 ′ ) = ℒ(ℒ(𝐵 ′ )) = ℒ(ℒ(𝐵)∪{𝑏}) ⊃ ℒ(𝐵) = 𝑉


↑ ↑

da 𝑏 ∈ ℒ(𝐵 ∖ {𝑏}) da ℒ(𝐵 ′ ) ∪ {𝑏} ⊃ 𝐵

also 𝐵 ′ ∈ 𝑀 . Dies ist ein Widersruch zur Wahl von 𝐵, da |𝐵 ′ | < |𝐵|.

Korollar 6.18. Jeder Vektorraum, der ein endliches Erzeugendensystem besitzt, besitzt
auch eine endliche Basis.

Definition 6.19
Ein Vektorraum heißt endlich dimensional, wenn er eine endliche Basis hat.

45
Bemerkung. Mit Hilfe des Auswahlaxioms lässt sich das Lemma 6.17 auch für nicht
endliche Erzeugendensysteme 𝑆 ⊂ 𝑉 beweisen.
So lässt sich zeigen, dass jeder Vektorraum, nicht nur endlich-dimensioanle Vektorräume,
eine Basis hat. Wenn 𝑉 ein nicht endlich-dimensionaler Vektorraum über 𝐾 ist, schreiben
wir dim(𝑉 ) = ∞.
Beispiel. Vektorraum der stetigen Funktionen von R nach R.

Satz 6.20 (Austauschsatz von Steinitz)


Sei 𝑉 ein Vektorraum über 𝐾. Sei 𝑇 ⊂ 𝑉 eine endliche Teilmenge die 𝑉 erzeugt und
𝑆 ⊂ 𝑉 eine linear unabhängige Menge. Dann gilt:
1 |𝑆| ≤ |𝑇 |

2 𝑆 kann durch |𝑇 | − |𝑆| Elemente zu einem Erzeugendensystem von 𝑉 ergänzt


werden.
Beweis.
Beweis durch vollständge Induktion nach |𝑆|

Induktionsanfang: |𝑆| = 0, also 𝑆 = ∅
Induktionsschritt: Wir nehmen an, dass die Aussage für alle Mengen mit weniger als |𝑆|
Elementen gilt.
Sei 𝑏 ∈ 𝑆 und 𝑆 ′ = 𝑆 ∖ {𝑏}. Dann ist 𝑆 ′ linear unabhängig. Sei 𝑘 = |𝑇 | − |𝑆 ′ |. Dann
gilt nach 1 dass 𝑘 ≥ 0, und nach 2 gibt es 𝑡1 , . . . 𝑡𝑘 ∈ 𝑇 , so dass 𝑆 ′ ∪ {𝑡1 , . . . 𝑡𝑘 } den
Vektorraum 𝑉 erzeugt. Insbesondere exisitiert 𝑤 ∈ ℒ(𝑆 ′ ), und 𝑎1 , . . . 𝑎𝑘 ∈ 𝐾, so dass
𝑘
∑︁
𝑏=𝑤+ 𝑎𝑖 𝑡𝑖 .
𝑖=1

Falls 𝑘 = 0, so ist 𝑏 ∈ ℒ(𝑆 ′ ), aber das ist ein Widerspruch zur linearen Unabhängigkeit
von 𝑆. Also ist 𝑘 ≥ 1. Also gilt
𝑘
⏞ ⏟
|𝑇 | − |𝑆| = |𝑇 | − |𝑆 ′ | −1
≥0

Also gilt 1 .
Da 𝑆 linear unabhängig ist, muss auch mindestens ein 𝑎𝑖 ∈ 𝐾 ungleich null sein. OBdA
nehmen wir 𝑎𝑘 ̸= 0 an.
Dann gilt (𝑏 = 𝑤 + 𝑘𝑖=1 𝑎𝑖 𝑡𝑖 )
∑︀

𝑘−1
∑︁
−1
𝑡𝑘 = 𝑎𝑘 (𝑏 − 𝑤) − 𝑎𝑘 −1 𝑎𝑖 𝑡𝑖
𝑖=1

also 𝑡𝑘 ∈ ℒ(𝑆 ∪ {𝑡1 , . . . 𝑡𝑘−1 )}. Also wird 𝑉 von der Menge 𝑆 ∪ {𝑡1 , . . . 𝑡𝑘−1 )} erzeugt.
Damit ist 2 bewiesen.

46
Korollar 6.21. Zwei Basen eines endlich dimensionalen Vektorraums haben die gleiche
Anzahl von Elementen.

Beweis.
𝑉 ist endlich dimensional, daher gibt es eine Basis 𝐵 ⊂ 𝑉 die aus endlich vielen Elementen
besteht. Sei 𝐴 eine andere Basis, dann ist 𝐴 linear abhängig. Also nach Satz 6.20

|𝐴| ≤ |𝐵|

Andererseits ist auch 𝐵 linear unabhängig und 𝐴 ein Erzeugendensystem. Also gilt nach
Satz 6.20
|𝐵| ≤ |𝐴|
Also gilt |𝐴| = |𝐵|.

Definition 6.22
Die Anzahl der Elemente einer Basis eines endliche dimensionalen Vektorraums 𝑉 über
𝐾 wird die Dimension von 𝑉 genannt. Wir schreiben dim(𝑉 ).

Beispiel.

1) dim(𝐾 𝑛 ) = 𝑛

2) Dimension von C als C-Vektorraum ist 1, 𝐵 = {(1, 0)}. Dimension von C als
R-Vektorraum ist 2, Basis 𝐵 = {(1, 0), (0, 1)}.

Korollar 6.23. Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum. Sei 𝑆 ⊂ 𝑉 linear unab-
hängig und 𝑇 ⊂ 𝑉 ein Erzeugendensystem von 𝑉 . Dann gilt:

1 |𝑆| ≤ dim(𝑉 )

2 𝑆 ist Basis ⇔ |𝑆| = dim(𝑉 )

3 |𝑇 | ≥ dim(𝑉 )

4 𝑇 ist Basis ⇔ |𝑇 | = dim(𝑉 )

5 Jede linear unabhängie Menge 𝑆 ⊂ 𝑉 kann zu einer Basis ergänzt werden.

Beweis.

1 𝑉 ist endlich dimensional, also existiert eine Basis 𝐵 mit |𝐵| = 𝑑𝑖𝑚(𝑉 ). Da 𝐵 den
Vektorraume erzeugt, gilt nach Satz 6.20,

|𝑆| ≤ |𝐵| = dim(𝑉 )

47
2 Nach Satz 6.20 kann 𝑆 durch |𝐵| − |𝑆| Elementen zu einem Erzeugendensystem
ergänzt werden. Daher gilt, wenn |𝐵|−|𝑆| = 0 ist, dass 𝑆 selbst ein Erzeugendensys-
tem ist, also 𝑆 ist eine Basis. Dies zeigt „⇐“, die Richtung „⇒“ ist in Korollar 6.21
gezeigt.

3 Wende Satz 6.20 auf Basis 𝐵, also linear unabhängige Menge und 𝑇 Erzeugenden-
system an, also
dim(𝑉 ) = |𝐵| ≤ |𝑇 |

4 Nach Lemma 6.17 gibt es eine Teilmenge 𝑇 ′ ⊂ 𝑇 die eine Basis ist.
„⇐“ Falls 𝑇 ′ aber eine echte Teilmenge 𝑇 ′ ( 𝑇 wäre, so wäre

|𝑇 ′ | < |𝑇 | = dim(𝑉 ).

Das ist ein Widerspruch dazu, dass 𝑇 ′ eine Basis ist.


„⇒“ Klar nach Korollar 6.21.

5 Nach Satz 6.20 kann 𝑆 durch Ergänzung von |𝐵| − |𝑆| zu einem Erzeugendensystem
𝑆 ′ ergänzt werden. Es gilt

|𝑆 ′ | ≤ |𝑆| + |𝐵| − |𝑆| = |𝐵| = dim(𝑉 ).

Daher gilt nach 3

|𝑆 ′ | ≥ 𝑑𝑖𝑚(𝑉 ), also dim(𝑉 ) = |𝑆 ′ |,

dann folgt mit 4 , dass 𝑆 ′ eine Basis ist.

Lemma 6.24. Sei 𝑉 ein 𝐾-Vektorraum und 𝑛 ∈ N, so dass für jede linear unabhängige
Menge 𝑆 ⊂ 𝑉 gilt |𝑆| ≤ 𝑛. Dann ist 𝑉 endlich dimensional.

Beweis.
Sei 𝑆 eine linear unabhängige Menge mit |𝑆| = 𝑛. Behauptung: Dann ist 𝑆 ein Erzeu-
gendensystem. Denn andernfalls gäbe es ein

𝑣 ∈ 𝑉 ∖ ℒ(𝑆)

und dann gilt nach Definition 6.13

𝑆 ′ = 𝑆 ∪ {𝑣}

ist linear unabhängig, aber


|𝑆 ′ | ≥ 𝑛 + 1 > 𝑛
Dies ist ein Widerspruch zur Annahme.

48
Proposition 6.25
Sei 𝑉 ein endlich dimensionaler Vektorraum über 𝐾, und 𝑊 ⊂ 𝑉 ein Untervektorraum.
Dann ist 𝑊 nach Lemma 6.24 endlich dimensional und dim(𝑊 ) ≤ dim(𝑉 ), mit Gleichheit
genau dann, wenn 𝑊 = 𝑉 .
Beweis.
Sei 𝑆 ⊂ 𝑊 linear unabhängig, dann ist 𝑆 ⊂ 𝑊 ⊂ 𝑉 linear unabhängig. Daher
|𝑆| ≤ dim(𝑉 )
⇒ 𝑊 ist endlich dimensional. Sei 𝐵 eine Basis von 𝑊 , dann ist 𝐵 ⊂ 𝑉 linear unabhängig.
⇒ dim(𝑊 ) = |𝐵| ≤ dim(𝑉 ).
Bei Gleichheit gilt also
|𝐵| = dim(𝑉 ).
Daher ist 𝐵 auch eine Basis von 𝑉 , also
𝑉 = ℒ(𝐵) = 𝑊.

Zur Erinnerung: Sei 𝑉 ein Vektorraum über 𝐾. Seien 𝑈, 𝑊 ⊂ 𝑉 Untervektorräume. So


ist 𝑈 ∩ 𝑊 ⊂ 𝑉 ein Untervektorraum.
𝑈 + 𝑊 := { 𝑢 + 𝑤 ∈ 𝑉 | 𝑢 ∈ 𝑈, 𝑤 ∈ 𝑊 }
Bemerkung.
1) 𝑈 + 𝑊 = ℒ(𝑈 ∪ 𝑊 )
𝑈 + 𝑈 = ℒ(𝑈 ∪ 𝑈 ) = ℒ(𝑈 ) = 𝑈.
2) 𝑈 + 𝑊 ist nicht das gleiche wie der Vektorraum 𝑈 ⊕ 𝑊 .

Proposition 6.26 (Dimensionsformel)


Sei 𝑉 ein Vektorraum über 𝐾. Seien 𝑈, 𝑊 ⊂ 𝑉 endlich dimensionale Untervektorräume.
Dann ist 𝑈 + 𝑊 endlich dimensional und es gilt:
dim(𝑈 + 𝑊 ) + dim(𝑈 ∩ 𝑊 ) = dim(𝑈 ) + dim(𝑊 )
Beweis.

Sei 𝑎 = dim(𝑈 ∩ 𝑊 )
𝑏 = dim(𝑈 ) − dim(𝑈 ∩ 𝑊 )
𝑐 = dim(𝑊 ) − dim(𝑈 ∩ 𝑊 )

Sei 𝐴 = {𝑣1 , . . . 𝑣𝑎 } eine Basis von 𝑈 ∩ 𝑊 ⊂ 𝑈 . Erweitern 𝐴 zu einer Basis 𝐵 =


{𝑣1 , . . . 𝑣𝑎 , 𝑢1 , . . . 𝑢𝑏 } von 𝑈 . Erweitern 𝐴 zu einer Basis 𝐶 = {𝑣1 , . . . 𝑣𝑎 , 𝑤1 , . . . 𝑤𝑐 } von
𝑊.

49
Behauptung: 𝐴 ∪ 𝐵 ∪ 𝐶 = {𝑣1 , . . . 𝑣𝑎 , 𝑢1 , . . . 𝑢𝑏 , 𝑤1 , . . . 𝑤𝑐 } ist eine Basis von 𝑈 + 𝑊 .
1 ℒ(𝐴 ∪ 𝐵 ∪ 𝐶) = 𝑈 + 𝑊 .
Sei 𝑥 ∈ 𝑈 + 𝑊 . Dann kann 𝑥 in der Form 𝑥 = 𝑢 + 𝑤 mit 𝑢 ∈ 𝑈 und 𝑤 ∈ 𝑊
dargestellt werden. Wir können
𝑎
∑︁ 𝑏
∑︁
𝑢= 𝑘𝑖 𝑣𝑖 + 𝑙𝑗 𝑢𝑗
𝑖=1 𝑗=1
𝑎
∑︁ 𝑐
∑︁
𝑤= 𝑘𝑖′ 𝑣𝑖 + 𝑚𝑗 𝑤𝑗
𝑖=1 𝑗=1

schreiben. Also
𝑎
∑︁ 𝑏
∑︁ 𝑐
∑︁
𝑢+𝑤 = (𝑘𝑖 + 𝑘𝑖′ )𝑣𝑖 + 𝑙𝑗 𝑢𝑗 + 𝑚𝑙 𝑤𝑙
𝑖=1 𝑗=1 𝑙=1

Also 𝐴 ∪ 𝐵 ∪ 𝐶 erzeugt 𝑈 + 𝑊 , insbesondere ist 𝑈 + 𝑊 endlich dimensional.

2 Müssen noch zeigen: 𝐴 ∪ 𝐵 ∪ 𝐶 ist linear unabhängig. Wir nehmen an 𝐴 ∪ 𝐵 ∪ 𝐶


ist linear abhängig, d.h. es existieren

𝛼1 , . . . , 𝛼𝑎 , 𝛽1 , . . . , 𝛽𝑏 , 𝛾1 , . . . , 𝛾𝑐 ∈ 𝐾,

die nicht alle null sind, so dass gilt


𝑎
∑︁ 𝑏
∑︁ 𝑐
∑︁
𝛼𝑖 𝑣𝑖 + 𝛽𝑗 𝑢𝑗 + 𝛾𝑙 𝑤𝑙 = 0
𝑖=1 𝑗=1 𝑙=1

also
𝑎
∑︁ 𝑏
∑︁ 𝑐
∑︁
𝑈∋ 𝛼𝑖 𝑣𝑖 + 𝛽𝑗 𝑢𝑗 = − 𝛾𝑙 𝑤𝑙 ∈ 𝑊 ~
𝑖=1 𝑗=1 𝑙=1
⏟ ⏞ ⏟ ⏞
∈ 𝑈 ∩𝑊 ∈ 𝑈 ∩𝑊

Da gilt
𝑐
∑︁
− 𝛾𝑙 𝑤𝑙 ∈ 𝑈 ∩ 𝑊 = ℒ(𝐴),
𝑙=1
existieren 𝛿𝑖 ∈ 𝐾, so dass
𝑎
∑︁ 𝑐
∑︁ 𝑎
∑︁ 𝑐
∑︁
0 · 𝑣𝑖 + 𝛾𝑙 𝑤𝑙 = 𝛿𝑖 𝑣𝑖 + 0 · 𝑤𝑙 ∈ 𝑊
𝑖=1 𝑙=1 𝑖=1 𝑙=1

Da 𝐴 ∪ 𝐶 eine Basis von 𝑊 ist, insbesondere 𝐴 ∪ 𝐶 linear unabhängig ist, gilt

𝛾1 = 𝛾2 = · · · = 𝛾𝑐 = 0.

50
Also
𝑎
∑︁ 𝑏
∑︁
𝛼𝑖 𝑣𝑖 + 𝛽𝑗 𝑢𝑗 = 0.
𝑖=1 𝑗=1

Da 𝐴 ∪ 𝐵 eine Basis von 𝑈 ist, gilt

𝛼1 = · · · = 𝛼𝑎 = 0 = 𝛽1 = · · · = 𝛽𝑏 .

Das ist ein Widerspruch zur Annahme, dass 𝐴 ∪ 𝐵 ∪ 𝐶 linear abhängig ist. Also ist
𝐴 ∪ 𝐵 ∪ 𝐶 linear unabhängig, also eine Basis von 𝑈 + 𝑊 . Also gilt:

dim(𝑈 + 𝑊 ) = |𝐴 ∪ 𝐵 ∪ 𝐶| =𝑎+𝑏+𝑐
dim(𝑈 ) = |𝐴 ∪ 𝐵| =𝑎+𝑏
dim(𝑊 ) = |𝐴 ∪ 𝐶| =𝑎+𝑐
dim(𝑈 ∩ 𝑊 ) = |𝐴| =𝑎

also
dim(𝑈 + 𝑊 ) + dim(𝑈 ∩ 𝑊 ) = 2𝑎 + 𝑏 + 𝑐 = dim(𝑈 ) + dim(𝑊 )

Definition 6.27
Sei 𝑈 ⊂ 𝑉 ein Untervektorraum. Ein Untervektorraum 𝑈 ′ ⊂ 𝑉 heißt Komplement zu 𝑈 ,
wenn gilt
𝑈 ∩ 𝑈 ′ = {0} und 𝑈 + 𝑈 ′ = 𝑉.

Proposition 6.28
Sei 𝑉 ein endlich dimensionaler Vektorraum und 𝑈 ⊂ 𝑉 ein Untervektorraum. Dann
existiert ein Komplement 𝑈 ′ zu 𝑈 .

Beweis.
Sei {𝑢1 , . . . , 𝑢𝑘 } eine Basis von 𝑈 . Wir können dies zu einer Basis von 𝑉 ergänzen.

Basis = {𝑢1 , . . . , 𝑢𝑘 , 𝑢′1 , . . . , 𝑢′𝑙 }

Setze
𝑈 ′ = ℒ({𝑢′1 , . . . , 𝑢′𝑙 }).

Dann gilt: 𝑈 ∩ 𝑈 ′ = {0}


𝑈 + 𝑈 ′ = 𝑉.

51
Beispiel. Seien 𝑉, 𝑊 Vektorräume über 𝐾. Die äußere direkte Summe

𝑉 ⊕𝑊

ist ein Vektorraum.


Zur Erinnerung: 𝑉 × 𝑊 = { (𝑣, 𝑤) | 𝑣 ∈ 𝑉, 𝑤 ∈ 𝑊 }

(𝑣1 , 𝑤1 ) + (𝑣2 , 𝑤2 ) = (𝑣1 + 𝑣2 , 𝑤1 + 𝑤2 )


𝑘 · (𝑣1 , 𝑤1 ) = (𝑘𝑣1 , 𝑘𝑤1 )
0𝑉 ⊕𝑊 = (0, 0).

Es gilt:
dim(𝑉 ⊕ 𝑊 ) = dim(𝑉 ) + dim(𝑊 )
Warum?
Sei 𝐵𝑣 = {𝑣1 , . . . , 𝑣𝑛 } eine Basis von 𝑉 und 𝐵2 = {𝑤1 , . . . , 𝑤𝑛 } eine Basis von 𝑊 .
Dann ist
𝐵𝑉 ⊕𝑊 = {(𝑣1 , 0), . . . , (𝑣𝑛 , 0), (0, 𝑤1 ), . . . , (0, 𝑤𝑛 )}
eine Basis von 𝑉 ⊕ 𝑊 .
Insbesondere gilt

dim(𝑉 𝑟 ) = 𝑟 · dim(𝑉 ) mit 𝑉 𝑟 = 𝑉 ⊕ · · · ⊕ 𝑉 .


⏟ ⏞
𝑟−𝑀 𝑎𝑙

6.4 Lineare Abbildungen


Im Folgenden ist 𝑉 ein 𝐾-Vektorraum.
Definition 6.29
Seien 𝑉, 𝑊 𝐾-Vektorräume. Eine Abbildung 𝑓 : 𝑉 → 𝑊 heißt linear, oder auch 𝐾-linear,
falls
1 𝑓 (𝑣 + 𝑤) = 𝑓 (𝑣) + 𝑓 (𝑤) für alle 𝑣, 𝑤 ∈ 𝑉 , d.h.
𝑓 : (𝑉, +) → (𝑊, +) ist ein Gruppenhomomorphismus.

2 𝑓 (𝑘𝑣) = 𝑘 · 𝑓 (𝑣) für alle 𝑘 ∈ 𝐾, 𝑣 ∈ 𝑉 .


Lineare Abbildungen nennt man auch Vektorraumhomomorphismus.

Beispiel.

1) 𝑓 : R → R 𝑥 ↦→ 𝑎𝑥 für 𝑎 ∈ 𝑅 ist linear. Allgemeiner:

𝑓 :𝐾→𝐾
𝑥 ↦→ 𝑘𝑥

mit 𝑘 ∈ 𝐾 ist 𝐾-linear.

52
2) Betrachte 𝐾 𝑛 :

𝑓 : 𝐾𝑛 → 𝐾
𝑥 = (𝑥1 , . . . , 𝑥𝑛 ) ↦→ 𝑎1 𝑥1 + · · · + 𝑎𝑛 𝑥𝑛

mit 𝑎1 , . . . , 𝑎𝑛 ∈ 𝐾 ist 𝐾-linear.

3) Komplexe Konjugation in C

𝑓 :C→C
𝑧 ↦→ 𝑧¯

=
𝑥 + 𝑖𝑦 ↦→ 𝑥 − 𝑖𝑦

ist R-linear, aber nicht C linear. Warum ist 𝑓 nicht C-linear?


Da
𝑓 (𝑟 · 𝑧) = 𝑟𝑧 = 𝑟 · 𝑧
wenn 𝑓 C-linear wäre, müsste gelten, dass

𝑓 (𝑟𝑧) = 𝑟 · 𝑓 (𝑧), also 𝑟¯ · 𝑧¯ = 𝑟 · 𝑧¯, also 𝑟 = 𝑟¯.

Aber 𝑟 = 𝑟¯ gilt genau dann, wenn 𝑟 ∈ R ⊂ C.

4) Sei 𝑋 eine Menge, 𝐾 ein Körper. Abb(𝑋, 𝐾) sind dann ein 𝐾-Vektorraum. Die
Auswertungsabbildung für 𝑥 ∈ 𝑋

Φ𝑥 : Abb(𝑋, 𝐾) → 𝐾
𝑓 ↦→ 𝑓 (𝑥)

ist 𝐾-linear.

5) Die Abbildung

(∙)′ : 𝐶 ∞ (R, R) → 𝐶 ∞ (R, R)


𝑓 ↦→ 𝑓 ′

ist eine R-lineare Abbildung, wobei 𝐶 ∞ (R, R) die Menge der glatten Funktionen
auf R, versehen mit der Struktur eines Vektorraums, ist.

6) Die Identität

𝑖𝑑 : 𝑉 → 𝑉

𝑥 ↦→ 𝑥

ist linear.

53
Definition 6.30
Sei 𝑓 : 𝑉 → 𝑊 linear, so heißt 𝑓

1 Monomorphismus, falls 𝑓 injektiv ist.

2 Epimorphismus, falls 𝑓 surjektiv ist.

3 Isomorphismus, falls 𝑓 bijektiv ist. Wir nennen 𝑉 und 𝑊 dann auch isomorph,
𝑉 ∼= 𝑊.

4 Endomorphismus, falls 𝑉 = 𝑊 .

5 Automorphismus, falls 𝑉 = 𝑊 ∧ 𝑓 bijektiv.

Proposition 6.31
Seien 𝑓, 𝑔 : 𝑉 → 𝑊 lineare Abbildungen, dann sind die Abbildungen

𝑓 +𝑔 : 𝑉 →𝑊 𝑥 ↦→ (𝑓 + 𝑔)(𝑥) := 𝑓 (𝑥) + 𝑔(𝑥)


𝑘𝑓 : 𝑉 → 𝑊 𝑥 ↦→ (𝑘 · 𝑓 )(𝑥) := 𝑘 · 𝑓 (𝑥) für 𝑘 ∈ 𝐾

linear. Insbesondere ist die Menge aller linearen Abbildungen von 𝑉 nach 𝑊 ein 𝐾-
Vektorraum. Wir schreiben
Hom𝐾 (𝑉, 𝑊 ).
(Die Vektorraumaddition und skalare Multiplikation sind durch 𝑓 + 𝑔 und 𝑘 · 𝑓 wie oben
definiert.)

Proposition 6.32
Seien 𝑉, 𝑊 𝐾-Vektorräume. Sei 𝑓 : 𝑉 → 𝑊 eine lineare Abbildung. Dann gilt

1 𝑓 ( 𝑛𝑖=1 𝑘𝑖 𝑥𝑖 ) = 𝑛𝑖=1 𝑘𝑖 𝑓 (𝑥𝑖 ) für alle 𝑘𝑖 ∈ 𝐾, 𝑥𝑖 ∈ 𝑉


∑︀ ∑︀

2 Die Komposition linearer Abbildungen ist linear.

3 Die Einschränkung einer linearen Abbildung auf einen Untervektorraum ist linear.

Beweis.

1 Beweisen wir über vollständige Induktion über 𝑛.


Induktionsanfang: Sei 𝑛 = 1.

𝑓 (𝑘1 𝑥1 ) = 𝑘1 𝑓 (𝑥1 )

gilt nach Definition der Linearität einer Abbildung.

54
Induktionsschritt: Wir nehmen an, de Aussage gilt für alle 𝑙 ≤ 𝑛. Es folgt:
𝑛+1
∑︁ 𝑛
∑︁
𝑓( 𝑘 𝑖 𝑥𝑖 ) = 𝑓( 𝑘𝑖 𝑥𝑖 + 𝑘𝑛+1 𝑥𝑛+1 )
𝑓 linear
𝑖=1 𝑖=1
𝑛
∑︁
= 𝑓( 𝑘𝑖 𝑥𝑖 ) + 𝑓 (𝑘𝑛+1 𝑥𝑛+1 )
𝑓 linear
𝑖=1
𝑛
∑︁
= 𝑘𝑖 𝑓 (𝑥𝑖 ) + 𝑘𝑛+1 𝑓 (𝑥𝑛+1 )
IA,
𝑓 linear 𝑖=1
𝑛+1
∑︁
= 𝑘𝑖 𝑓 (𝑥𝑖 )
𝑓 linear
𝑖=1

𝑔 𝑓
2 Seien 𝑈 → − 𝑊 lineare Abbildungen. Für 𝑥, 𝑦 ∈ 𝑈, 𝑘 ∈ 𝐾 gilt
− 𝑉 →

(𝑓 ∘ 𝑔)(𝑥 + 𝑦)=𝑓 (𝑔(𝑥 + 𝑦))=𝑓 (𝑔(𝑥)+ 𝑔(𝑦))=𝑓 (𝑔(𝑥))+ 𝑓 (𝑔(𝑦))=(𝑓 ∘ 𝑔)(𝑥)+ (𝑓 ∘ 𝑔)(𝑦)

(𝑓 ∘ 𝑔)(𝑘𝑥)=𝑓 (𝑔(𝑘𝑥))=𝑓 (𝑘𝑔(𝑥))=𝑘𝑓 (𝑔(𝑥))=𝑘(𝑓 ∘ 𝑔)(𝑥)

3 Ist offensichtlich, weil Verträglichkeit bezüglich der Addition und skalaren Multipli-
kation nun nur für Elemente des Untervektorraums gefordert ist.

Proposition 6.33
Seien 𝑉, 𝑊 endlich dimensional mit Basen 𝐵𝑉 = {𝑣1 , . . . , 𝑣𝑛 } und 𝐵𝑊 = {𝑤1 , . . . , 𝑤𝑚 }.
Dann gilt:

1 Jede lineare Abbildung 𝑓 : 𝑉 → 𝑊 ist eindeutig bestimmt durch die Bilder


𝑓 (𝑣1 ), . . . , 𝑓 (𝑣𝑛 ) ∈ 𝑊 .

2 Die linearen Abbildungen


1≤𝑖≤𝑛
𝑓𝑖,𝑎 : 𝑉 → 𝑊, 1≤𝑎≤𝑚
𝑛
∑︁
𝑘𝑖 𝑣𝑖 = 𝑣 ↦→ 𝑘𝑖 𝑤𝑎
𝑖=1

bilden eine Basis von Hom𝐾 (𝑉, 𝑊 ). Insbesondere ist

dim(Hom𝐾 (𝑉, 𝑊 )) = dim(𝑉 ) · dim(𝑊 ).

55
Beweis.
1 Da ℒ(𝐵) = 𝑉 ist klar, dass 𝑓 : 𝑉 → 𝑊 durch die Bilder 𝑓 (𝑣1 ), . . . , 𝑓 (𝑣𝑛 ) der
Basisvektoren bestimmt ist (Proposition 6.32 1 ). Ist 𝑓 dadurch eindeutig
festgelegt?
Nehme an 𝑔 : 𝑉 → 𝑊 ist linear mit

𝑔(𝑣𝑖 ) = 𝑓 (𝑣𝑖 ), für alle 𝑣𝑖 ∈ 𝐵𝑉 .

Dann gilt

(𝑔 − 𝑓 )(𝑣𝑖 ) = (𝑔 + (−𝑓 ))(𝑣𝑖 ) = 𝑔(𝑣𝑖 ) + (−𝑓 (𝑣𝑖 )) = 𝑔(𝑣𝑖 ) − 𝑓 (𝑣𝑖 ) = 0

Wegen der Linearität von 𝑔 und 𝑓 folgt daher (Proposition 6.32 1 )

(𝑔 − 𝑓 )(𝑣) = 0 für alle 𝑣 ∈ 𝑉

also 𝑔 = 𝑓 .
2 Wir wollen zeigen, dass die linearen Abbildungen
1≤𝑖≤𝑛
𝑓𝑖,𝑎 : 𝑉 → 𝑊, 1≤𝑎≤𝑚
𝑛
∑︁
𝑘𝑖 𝑣𝑖 = 𝑣 ↦→ 𝑘𝑖 𝑤𝑎
𝑖=1

ein Erzeugendensystem von Hom𝐾 (𝑉, 𝑊 ) sind.


Seien 𝑢1 , . . . 𝑢𝑛 ∈ 𝑊 beliebig gewählt, so lassen sich 𝑥𝑖,𝑎 ∈ 𝐾 finden, so dass
die lineare Abbildung ∑︁
𝑓= 𝑥𝑖,𝑎 𝑓𝑖,𝑎
𝑖=1,...,𝑛
𝑎=1,...,𝑚

genau den Vektor 𝑣𝑖 auf 𝑢𝑖 sendet.


Wie machen wir das?
Da 𝐵𝑊 = {𝑤1 , . . . , 𝑤𝑚 } eine Basis von 𝑊 ist, können wir
𝑚
∑︁
𝑢𝑖 = 𝑦𝑖,𝑎 𝑤𝑎 mit 𝑦𝑖,𝑎 ∈ 𝐾
𝑎=1

schreiben. Dann bildet ∑︁


𝑓 := 𝑦𝑖,𝑎 𝑓𝑖,𝑎
𝑖=1,...,𝑛
𝑎=1,...,𝑚

genau 𝑣𝑖 auf 𝑢𝑖 ab, für alle 1 ≤ 𝑖 ≤ 𝑛. Nun zeigen wir, dass { 𝑓𝑖,𝑎 | 𝑖=1,...,𝑛
𝑎=1,...,𝑚 }
linear unabhängig ist. Sei
∑︁
𝑓= 𝑦𝑖,𝑎 𝑓𝑖,𝑎 = 0 mit 𝑦𝑖,𝑎 ∈ 𝐾.
𝑖=1,...,𝑛
𝑎=1,...,𝑚

56
Dann gilt für alle 1 ≤ 𝑗 ≤ 𝑛
∑︁ 𝑚
∑︁
0 = 𝑓 (𝑣𝑗 ) = 𝑦𝑖,𝑎 𝑓𝑖,𝑎 (𝑣𝑗 ) = 𝑦𝑗,𝑎 𝑤𝑎 .
𝑎=1,...,𝑚 𝑎=1
𝑖=1,...,𝑛

Aus der linearen Unabhängigkeit von 𝐵𝑊 = {𝑤1 , . . . , 𝑤𝑚 } folgt


für alle 1≤𝑎≤𝑚
𝑦𝑗,𝑎 = 0 für alle 1≤𝑗≤𝑚 .

Also sind die


1≤𝑎≤𝑚
𝑓𝑖,𝑎 1≤𝑖≤𝑛

linear unabhängig und bilden eine Basis von Hom𝐾 (𝑉, 𝑊 ). Als Konsequenz
erhalten wir die Dimensionsformel

dim(Hom𝑘 (𝑉, 𝑊 ) = dim(𝑉 ) · dim(𝑊 ).

Proposition 6.34
Sei 𝑓 : 𝑉 → 𝑊 linear. Seinen 𝑋 ⊂ 𝑉 und 𝑌 ⊂ 𝑊 Untervektorräume. Dann ist

1 𝑓 (𝑋) ein Untervektorraum von 𝑊 .

2 𝑓 −1 (𝑌 ) ein Untervektorraum von 𝑉 .

Beweis.

1 Seien 𝑤1 , 𝑤2 ∈ 𝑓 (𝑋), 𝑘 ∈ 𝐾. Dann gibt es 𝑥1 , 𝑥2 ∈ 𝑋 mit 𝑤𝑖 = 𝑓 (𝑥𝑖 ). Daher

𝑤1 + 𝑤2 = 𝑓 (𝑥1 ) + 𝑓 (𝑥2 ) = 𝑓 (𝑥1 + 𝑥2 ) ⊂ 𝑓 (𝑋).


𝑓 linear

𝑘𝑤1 = 𝑘 · 𝑓 (𝑥1 ) = 𝑓 (𝑘𝑥1 ) ⊂ 𝑓 (𝑋)


𝑓 linear

2 Seien 𝑣1 , 𝑣2 ∈ 𝑓 −1 (𝑌 ), 𝑘 ∈ 𝐾. Dann gilt

𝑓 (𝑣𝑖 ) = 𝑦𝑖 ∈ 𝑌.

Da 𝑌 ein Untervektorraum ist, gilt

𝑌 ∋ 𝑦1 + 𝑦2 = 𝑓 (𝑣1 ) + 𝑓 (𝑣2 ) = 𝑓 (𝑣1 + 𝑣2 ), also 𝑣1 + 𝑣2 ∈ 𝑓 −1 (𝑌 ).


𝑌 ∋ 𝑘𝑦1 = 𝑘 · 𝑓 (𝑣1 ) = 𝑓 (𝑘𝑣1 ), also 𝑘 · 𝑣1 ∈ 𝑓 −1 (𝑌 ).

57
Definition 6.35
Sei 𝑓 : 𝑉 → 𝑊 linear.

1. Das Bild von 𝑓 ist der Untervektorraum im(𝑓 ) = 𝑓 (𝑉 ) ⊂ 𝑊 .

2. Der Kern von 𝑓 ist der Untervektorraum ker(𝑓 ) = 𝑓 −1 ({0}) ⊂ 𝑉 .

Proposition 6.36
Sei 𝑓 : 𝑉 → 𝑊 linear. Dann gilt:

1 𝑓 ist surjektiv ⇔ 𝑖𝑚(𝑓 ) = 𝑊

2 𝑓 ist injektiv ⇔ ker(𝑓 ) = {0}.

Beweis.

1 ist klar .

2 „⇒“ Sei 𝑓 injektiv, dann gilt


|𝑓 −1 ({0})| = 1.
Da aber 𝑓 (0𝑉 ) = 0𝑤 ist, gilt also ker 𝑓 = 𝑓 −1 ({0}) = {0}.
„⇐“ Sei ker 𝑓 = {0}. Seien 𝑣1 , 𝑣2 ∈ 𝑉 mit 𝑓 (𝑣1 ) = 𝑓 (𝑣2 ). Dann gilt wegen der
Linearität von 𝑓
0 = 𝑓 (𝑣1 ) − 𝑓 (𝑣2 ) = 𝑓 (𝑣1 − 𝑣2 ).
Also 𝑣1 − 𝑣2 ∈ ker(𝑓 ), also gilt 𝑣1 − 𝑣2 = 0, also 𝑣1 = 𝑣2 . Also ist 𝑓 injektiv.

Satz 6.37
Sei 𝑉 endlich dimensional und 𝑓 : 𝑉 → 𝑊 linear. Dann ist auch im(𝑓 ) = im(𝑉 ) endlich
dimensional, und
dim(𝑉 ) = dim(ker(𝑓 )) + dim(im(𝑓 )).
Insbesondere ist 𝑓 injektiv, wenn

dim(𝑉 ) = dim(𝑓 (𝑉 )) = dim(im(𝑓 )).

Beweis.
Sei 𝐵 eine Basis von 𝑉 und 𝐴 eine Basis von ker(𝑓 ) ⊂ 𝑉 . Dann kann man 𝐴 durch
Hinzufügen von |𝐵| − |𝐴| Elementen zu einer Basis von 𝑉 ergänzen. Sei 𝑆 die Menge
dieser Elemente.
Beahuptung: 𝑓 (𝑆) ist eine Basis von im(𝑓 ).
Sei dazu 𝐴 = {𝑥1 , . . . , 𝑥𝑛−𝑑 }, 𝑆 = {𝑥𝑛−𝑑+1 , . . . , 𝑥𝑛 }.

58
Zeige zuerst: 𝑓 (𝑆) erzeugt im(𝑓 ):
Sei also 𝑤 ∈ im(𝑓 ). Dann ∃ 𝑘𝑖 ∈ 𝐾, 1 ≤ 𝑖 ≤ 𝑛, so dass
𝑛
∑︁ 𝑛
∑︁ 𝑛
∑︁
𝑤 = 𝑓( 𝑘𝑖 𝑥𝑖 ) = 𝑘𝑖 𝑓 (𝑥𝑖 ) = 𝑘𝑖 𝑓 (𝑥𝑖 ) ∈ ℒ(𝑓 (𝑆)).
𝑖=1 𝑖=1 𝑖=𝑛−𝑑+1

Zeige nun: 𝑓 (𝑆) ist linear unabhängig:


Seien 𝑘𝑛−𝑑+1 , . . . , 𝑘𝑛 ∈ 𝐾 und
𝑛
∑︁ 𝑛
∑︁
0= 𝑘𝑖 𝑓 (𝑥𝑖 ) = 𝑓 ( 𝑘𝑖 𝑥𝑖 ),
𝑖=𝑛−𝑑+1 𝑖=𝑛−𝑑+1

also 𝑛
∑︁
𝑘𝑖 𝑥𝑖 ∈ ker(𝑓 ).
𝑖=𝑛−𝑑+1

Nun ist aber 𝐴 = {𝑥1 , . . . , 𝑥𝑛−𝑑 } eine Basis von ker(𝑓 ). Also gilt es existieren 𝑘1 , . . . , 𝑘𝑛−𝑑 ,
so dass
𝑛
∑︁ 𝑛−𝑑
∑︁
𝑘 𝑖 𝑥𝑖 = − 𝑘𝑖 𝑥𝑖 ,
𝑖=𝑛−𝑑+1 𝑖=1

also 𝑛
∑︁
𝑘 𝑖 𝑥𝑖 = 0
𝑖=1
aber da {𝑥1 , . . . , 𝑥𝑛 } eine Basis von 𝑉 ist, also linear unabhängig, gilt daher 𝑘𝑖 = 0 für
alle 1 ≤ 𝑖 ≤ 𝑛. Insbesondere also für 𝑛 − 𝑑 + 1 ≤ 𝑖 ≤ 𝑛. Daraus folgt: 𝑓 (𝑆) ist linear
unabhängig.
Also: 𝑓 (𝑆) ist eine Basis von im(𝑓 ), also ist im(𝑓 ) endlich dimensional und
dim(𝑉 ) = dim(ker(𝑓 )) + dim(im(𝑓 )).
Korollar 6.38. Eine lineare Abbildung 𝑓 : 𝑉 → 𝑊 zwischen eindlich dimensionalen
Vektorräumen ist ein Isomorphismus genau dann, wenn
dim(𝑉 ) = dim(𝑊 ), und
𝑓 ein Epimorphismus oder ein Monomorphismus ist.
Beweis.
„⇐“ Sei dim(𝑉 ) = dim(𝑊 ) = 𝑑
. . . und 𝑓 : 𝑉 → 𝑊 ein Monomorphismus, so gilt
dim(ker(𝑓 )) = 0 ⇒ dim(im(𝑓 )) = 𝑑
also folgt aus im(𝑓 ) ⊂ 𝑊 ein Untervektorraum der gleichen Dimension ist,
dass
im(𝑓 ) = 𝑓 (𝑉 ) = 𝑊,
also 𝑓 surjektiv.

59
. . . und 𝑓 : 𝑉 → 𝑊 ein Epimorphismus. Dann gilt

dim(im(𝑓 )) = dim(𝑊 ) = 𝑑.

Also
dim(ker(𝑓 )) = 0.
Also
ker(𝑓 ) = {0},
also 𝑓 injektiv.

„⇒“ Ist 𝑓 ein Isomorphismus, dann ist

im(𝑓 ) = 𝑓 (𝑉 ) = 𝑊 und ker(𝑓 ) = {0}

Also dim(𝑉 ) = dim(𝑊 ).

Definition 6.39
Sei 𝑉 endlich dimensional und 𝑓 : 𝑉 → 𝑊 linear. Dann nennt man die Dimension des
Bildes von 𝑓 auch den Rang von 𝑓

Rang(𝑓 ) := dim(im(𝑓 )).

Satz 6.40
Zwei endlich dimensionale Vektorräume sind genau dann isomorph, wenn ihre Dimensio-
nen übereinstimmen. Insbesondere sind für alle 𝑛 ∈ N0 alle Vektorräume der Dimension
𝑛 isomorph zu 𝐾 𝑛 .
Wir nennen 𝑉, 𝑊 isomorph, falls es einen Isomorphismus 𝑓 : 𝑉 → 𝑊 gibt.

Beweis.
Sei 𝑉 ein 𝐾-Vektorraum der Dimension 𝑛. Wähle eine Basis 𝐵 = {𝑣1 , . . . , 𝑣𝑛 }. Definiere
eine lineare Abbildung

𝑖𝐵 : 𝐾 𝑛 → 𝑉
𝑛
∑︁
(𝑘1 , . . . , 𝑘𝑛 ) ↦→ 𝑘𝑖 𝑣𝑖
𝑖=1

Dann ist
ker(𝑖𝐵 ) = {(0, . . . , 0) = 0},
also
𝐾𝑜𝑟𝑜𝑙𝑙𝑎𝑟 6.38
dim(𝑉 ) = dim(𝐾 𝑛 ) ========⇒ 𝑖𝐵 ist ein Isomorphismus.

60
Also jeder Vektorraum der Dimension 𝑛 ist isomorph zu 𝐾 𝑛 , also folgt daraus falls 𝑉, 𝑊
Vektorräume mit
dim(𝑉 ) = dim(𝑊 ) = 𝑛
sind, dass
𝑉 ∼
= 𝐾𝑛 und 𝑊 ∼
= 𝐾 𝑛,
also
𝑉 ∼
= 𝑊.
Aus Korollar 6.38 folgt, falls

dim(𝑉 ) ̸= dim(𝑊 ) ⇒ 𝑉 ∼
̸= 𝑊.

Wichtig: Der Isomorphismus zwischen 𝐾 𝑛 und 𝑉 hängt von der Wahl der Basis 𝐵 ab. Er
ist nicht kanonisch!

Übung.
Sei 𝐺 eine Gruppe und 𝐻 ⊂ 𝐺 eine Untergruppe. Wir definieren eine Äquivalenzrelation
∼𝐻 auf 𝐺:

𝑔, 𝑔 ′ ∈ 𝐺 𝑔 ∼𝐻 𝑔 ′ genau dann wenn 𝑔 −1 · 𝑔 ′ ∈ 𝐻.

Zeige, dass ∼𝐻 eine Äquivalenzrelation ist.

1 𝑔 ∼𝐻 𝑔, da 𝑔 −1 · 𝑔 = 𝑒𝐺 = 𝑒𝐻 ∈ 𝐻.
−1
2 𝑔 ∼𝐻 𝑔 ′ ⇒ 𝑔 ′ ∼𝐻 𝑔, da 𝑔 ′ −1 · 𝑔 = (𝑔 −1 · 𝑔 ′ ) und 𝐻 eine Untergruppe ist.

3 𝑔 ∼𝐻 𝑔 ′ und 𝑔 ′ ∼𝐻 𝑔 ′′ , dann ist 𝑔 −1 𝑔 ′ ∈ 𝐻 und 𝑔 ′ −1 𝑔 ′′ ∈ 𝐻. Also ist auch 𝑔 −1 𝑔 ′′ ∈ 𝐻.

Definition 6.41
Die Menge der Äquivalenzklassen von ∼𝐻 bezeichnen wir mit 𝐺/𝐻. Die Äquivalenzklasse
von 𝑔 ∈ 𝐺 ist
𝑔𝐻 = { 𝑔 ′ = 𝑔ℎ ∈ 𝐺 | ℎ ∈ 𝐻 }.
Wir nennen die Äquivalenzklassen 𝑔𝐻 die Linksnebenklasse zu H.

Proposition 6.42
Sei 𝐺 abelsch und 𝐻 ⊂ 𝐺. Dann gilt:
Die Menge 𝐺/𝐻 der Linksnebenklassen zu 𝐻 wird durch die Verknüpfung

∙ : 𝐺/𝐻 × 𝐺/𝐻 → 𝐺/𝐻 ∀𝑔, 𝑔 ′ ∈ 𝐺


(𝑔𝐻, 𝑔 ′ 𝐻) ↦→ 𝑔𝑔 ′ 𝐻

eine abelsche Gruppe. 𝐺/𝐻 heißt die Faktorgruppe von 𝐺 nach 𝐻.

61
Beweis.
Die Verknüpfung ist wohldefiniert.
Zu zeigen: Sei 𝑔1 , 𝑔2 ∈ 𝐺 mit 𝑔1 𝐻 = 𝑔2 𝐻 und 𝑔1′ , 𝑔2′ ∈ 𝐺 mit 𝑔1′ 𝐻 = 𝑔2′ 𝐻. So gilt:

(𝑔1 𝑔1′ )𝐻 = (𝑔2 𝑔2′ )𝐻.

Wir wissen, dass 𝑔1 −1 𝑔2 ∈ 𝐻 und (𝑔1′ )−1 𝑔2′ ∈ 𝐻.


−1 −1 −1
(𝑔1 𝑔1′ ) (𝑔2 𝑔2′ ) = (𝑔1′ 𝑔1 −1 )(𝑔2 𝑔2′ ) = ((𝑔1′ ) 𝑔2′ )(𝑔1 −1 𝑔2 ) ∈ 𝐻

Die Gruppenaxiome (+ abelsch) gelten, da sie von 𝐺 vererbt werden, insbesondere


𝑒𝐺/𝐻 = 𝑒𝐺 𝐻.

Proposition 6.43
Sei 𝑉 ein 𝐾-Vektorraum und 𝑈 ⊂ 𝑉 ein Untervektorraum. Die Faktorgruppe 𝑉 /𝑈 der
Linksnebenklassen 𝑣 + 𝑈 von 𝑉 mod 𝑈 wird mit der skalaren Multiplikation
𝑘∈𝐾
𝑘 · (𝑣 + 𝑈 ) := (𝑘𝑣) + 𝑈 𝑣∈𝑉

ein Vektorraum über K. 𝑉 /𝑈 heißt Faktorraum.


Die kanonische Projektion

𝑝 : 𝑉 ⇒ 𝑉 /𝑈
𝑣 ↦→ 𝑣 + 𝑈

ist linear.

Beweis.
Zu zeigen: Die skalare Multiplikation ist wohldefiniert. Also sei 𝑣1 , 𝑣2 ∈ 𝑉 mit 𝑣1 + 𝑈 =
𝑣2 + 𝑈 , also 𝑣1 − 𝑣2 ∈ 𝑈 . Dann gilt für alle 𝑘 ∈ 𝐾

𝑘𝑣1 − 𝑘𝑣2 = 𝑘(𝑣1 − 𝑣2 ) ∈ 𝑈,

da 𝑈 ein Untervektorraum ist, d.h

𝑘𝑣1 + 𝑈 = 𝑘𝑣2 + 𝑈.

Alle anderen Eigenschaften werden von der Vektorraumstruktur auf 𝑉 vererbt. Insbeson-
dere ist klar, dass die kanonische Projektion linear ist.

62
Satz 6.44 (Dimension des Faktorraums)
Sei 𝑉 ein endlich dimensionaler Vektorraum und 𝑈 ⊂ 𝑉 ein Untervektorraum. Dann ist
𝑉 /𝑈 endlich dimensional und es gilt

dim 𝑉 /𝑈 = dim 𝑉 − dim 𝑈.

Beweis.
Sei 𝑈 ′ ein Komplement zu 𝑈 in 𝑉 . Dann ist

dim 𝑈 ′ = dim 𝑉 − dim 𝑈.

Betrachte
𝑖 𝑝
𝑓 : 𝑈′ →
− 𝑉 →
− 𝑉 /𝑈
Behauptung: 𝑓 ist ein Isomorphismus.

z.z. 𝑓 ist injektiv.

ker(𝑓 ) = ker(𝑝) ∩ 𝑈 ′ = 𝑈 ∩ 𝑈 ′ = {0}

also ist 𝑓 injektiv.

z.z. 𝑓 ist surjektiv.


Sei 𝑣 + 𝑈 ∈ 𝑉 /𝑈 beliebig. Da 𝑈 + 𝑈 ′ = 𝑉 gibt es 𝑢 ∈ 𝑈, 𝑢′ ∈ 𝑈 ′ , so dass 𝑣 = 𝑢 + 𝑢′ .
Das heißt
𝑣 + 𝑈 = (𝑢 + 𝑢′ ) + 𝑈 = 𝑢′ + 𝑈.
Also ist 𝑢′ ∈ 𝑈 ′ ein Urbild von 𝑣 + 𝑈 , da

𝑓 (𝑢′ ) = 𝑢′ + 𝑈 = 𝑣 + 𝑈.

Also ist 𝑓 surjektiv.


Damit ist 𝑓 bijektiv (und linear, da 𝑝 linear ist) und somit ein Isomorphismus.

Satz 6.45 (Universelle Eigenschaft des Faktorraums)


Sei 𝑈 ⊂ 𝑉 ein Untervektorraum und 𝑝 : 𝑉 → 𝑉 /𝑈 die kanonische Projektion. Dann gilt:
Zu jeder linearen Abbildung 𝑓 : 𝑉 → 𝑊 mit 𝑈 ⊂ ker(𝑓 ) gibt es eine eindeutig bestimmte
Abbildung
𝑓¯ : 𝑉 /𝑈 → 𝑊 mit 𝑓 = 𝑓¯ ∘ 𝑝.
𝑓
𝑉 𝑊
𝑝 𝑓¯

𝑉 /𝑈

63
Beweis.

1 Existenz von 𝑓¯.


Wir definieren 𝑓¯(𝑣 + 𝑈 ) = 𝑓 (𝑣).
Wohldefiniertheit?
Sei 𝑣1 + 𝑈 = 𝑣2 + 𝑈 , also 𝑣1 − 𝑣2 ∈ 𝑈 . Da gilt 𝑈 ∈ ker(𝑓 ), folgt

𝑓 (𝑣1 ) = 𝑓 (𝑣1 ) − 𝑓 (𝑣1 − 𝑣2 ) = 𝑓 (𝑣1 − 𝑣1 + 𝑣2 ) = 𝑓 (𝑣2 )

2 Eindeutigkeit
Seien 𝑓¯1 , 𝑓¯2 zwei solcher Abbildungen. Sei 𝑣 + 𝑈 ∈ 𝑉 /𝑈 . Wir müssen zeigen

𝑓¯1 (𝑣 + 𝑈 ) = 𝑓¯2 (𝑣 + 𝑈 ).

Das gilt da

𝑓 (𝑣) = 𝑓¯1 (𝑝(𝑣)) = 𝑓¯1 (𝑣 + 𝑈 )


𝑓 (𝑣) = 𝑓¯2 (𝑝(𝑣)) = 𝑓¯2 (𝑣 + 𝑈 )

also
𝑓¯1 (𝑣 + 𝑈 ) = 𝑓¯2 (𝑣 + 𝑈 ).

Korollar 6.46. Es gibt einen natürlichen Isomorphismus von Vektorräumen

𝐹 : { 𝜑 ∈ Hom𝐾 (𝑉, 𝑊 ) | 𝑈 ⊂ ker(𝜑) } → Hom𝐾 (𝑉 /𝑈, 𝑊 )


𝜑 ↦→𝐹 (𝜑) = 𝜑¯
¯ + 𝑈 ) := 𝜑(𝑣).
𝜑(𝑣

Beweis.

1 Übung: Linke Seite ist ein Untervektorraum von Hom𝐾 (𝑉, 𝑊 ).

2 𝐹 ist linear. Das folgt aus der Definition von 𝐹 .

3 Isomorphismus.
Sei 𝑓 ∈ Hom𝐾 (𝑉 /𝑈, 𝑊 ). Betrachte die Umkehrabbildung 𝐺 : definiert durch

𝐺(𝑓 ) = 𝑓 ∘ 𝑝 : 𝑉 → 𝑊

Es gilt klar, dass 𝑈 ∈ ker(𝐺(𝑓 )). Wir sehen

𝐹 ∘ 𝐺(𝑓 ) = 𝑓 und 𝐺 ∘ 𝐹 (𝜑) = 𝜑.

64
Satz 6.47 (Homomorphiesatz für lineare Abbildungen)
Seien 𝑉, 𝑊 Vektorräume, 𝑓 : 𝑉 → 𝑊 lineare Abbildungen. Dann gibt es einen natürlichen
Vektorraumisomorphismus
𝐹 : 𝑉 / ker(𝑓 ) → im(𝑓 )
mit
𝑓 = 𝑖 ∘ 𝐹 ∘ 𝑝.
𝑓
𝑉 𝑊
𝑝 𝑖
𝐹
𝑉 / ker(𝑓 ) im(𝑓 )

Beweis.
Nach Satz 6.45 erhalten wir eine lineare Abbildung

𝑓¯ : 𝑉 / ker(𝑓 ) → 𝑊

mit
𝑓¯(𝑣 + ker(𝑓 )) = 𝑓 (𝑣)
d.h.
𝑓 = 𝑓¯ ∘ 𝑝.

1 z.z.: 𝑓¯ ist injektiv


Sei 𝑓¯(𝑣 + ker(𝑓 )) = 0 ⇒ 𝑓 (𝑣) = 0, also 𝑣 ∈ ker(𝑓 ). Daher

𝑣 + ker(𝑓 ) = 0 + ker(𝑓 ).

2 im(𝑓 ) = im(𝑓¯) nach Defintion von 𝑓¯. Also

𝑓¯ = 𝑖 ∘ 𝐹 mit 𝐹 : 𝑉 / ker(𝑓 ) → im(𝑓 ).

Da 𝑓¯ injektiv ist, ist auch 𝐹 injektiv.

3 Nach Konstruktion ist 𝐹 surjektiv, also ist 𝐹 ein Isomorphismus und

𝑓 = 𝑓¯ ∘ 𝑝 = 𝑖 ∘ 𝐹 ∘ 𝑝.

6.5 Dualraum
Definition 6.48
Sei 𝑉 ein 𝐾-Vektorraum. Wir definieren den Raum der linearen Funktionale auf 𝑉 durch

𝑉 * := Hom𝐾 (𝑉, 𝐾).

𝑉 * wird auch der Dualraum von V genannt.


Sei 𝑉 endlich dimensional und 𝐵 = {𝑣1 , . . . , 𝑣𝑛 } eine Basis von 𝑉 . Jeder Vektor, der

65
nicht gleich 0 ist, gibt eine Basis von 𝐾, insbesondere ist {1} ⊂ 𝐾 eine Basis.
Aus Proposition 6.33 2 folgt, dass die lineare Funktionale 𝜑1 , . . . , 𝜑𝑛 ∈ 𝑉 * definiert
durch {︃
1 𝑖=𝑗
𝜑𝑖 (𝑣𝑗 ) := 𝛿𝑖𝑗 := (Kronecker-Delta)
0 𝑖 ̸= 𝑗
eine Basis von 𝑉 * bilden.
Wieso? Wähle Basis {𝑤1 = 1 ∈ 𝐾} von 𝐾. Dann ist

𝑓𝑖1 = 𝜑𝑖 .

Damit folgt die Aussage aus Proposition 6.33 2 .

Definition 6.49
Sei 𝑉 endlich dimensional mit Basis 𝐵 = {𝑣1 , . . . , 𝑣𝑛 }, so heißt die Basis

𝐵 * = {𝜑1 , . . . 𝜑𝑛 } ⊂ 𝑉 * = Hom(𝑉, 𝐾)
𝜑𝑖 (𝑣𝑗 ) = 𝛿𝑖𝑗

die zu 𝐵 duale Basis.

Korollar 6.50. Es gilt dim(𝑉 ) = dim(𝑉 * ).


Also sind 𝑉 und 𝑉 * isomorph, aber nicht kanonisch!

Proposition 6.51
Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum. Betrachte

𝑉 ** := Hom(𝑉 * , 𝐾)

den Dualraum des Dualraums. Dann ist die Abbildung

Φ𝑉 : 𝑉 → 𝑉 **
𝑣 ↦→ Φ𝑉 (𝑣)(𝜑) := 𝜑(𝑣) für 𝜑 ∈ 𝑉 *

ein Isomorphismus.
Insbesondere sind 𝑉 und 𝑉 ** kanonisch isomorph.

Beweis.

1 Φ𝑉 ist linear, da es eine Auswertungsabbildung ist (nachdenken!).

2 Es gilt
dim(𝑉 ) = dim(𝑉 * ) = dim(𝑉 ** ).

66
Daher müssen wir nach Korollar 6.38 nur zeigen, dass Φ𝑉 injektiv ist.
Seien 𝑣, 𝑤 ∈ 𝑉 mit Φ𝑉 (𝑣) = Φ𝑉 (𝑤). Also

0 = Φ𝑉 (𝑣) − Φ𝑉 (𝑤) = Φ𝑉 (𝑣 − 𝑤).

Also
0 = Φ𝑉 (𝑣 − 𝑤)(𝜑) = 𝜑(𝑣 − 𝑤) ∀𝜑 ∈ 𝑉 * .
Wir nehmen an 𝑣 − 𝑤 ̸= 0. Betrachte 𝑥1 = 𝑣 − 𝑤 ̸= 0 und ergänze {𝑥1 } zu einer
Basis 𝐵 = {𝑥1 , . . . , 𝑥𝑛 } von 𝑉 .
Sei 𝐵 * die duale Basis zu 𝐵.

𝐵 * = {𝜑1 , . . . , 𝜑𝑛 } von 𝑉 * .

Dann ist
0 = 𝜑1 (𝑣 − 𝑤) = 𝜑1 (𝑥1 ) = 1
Dies ist ein Widerspruch, da 0 ̸= 1. E
Also 𝑣 − 𝑤 = 0, also 𝑣 = 𝑤. Damit ist Φ𝑉 injektiv und somit ein Isomorphismus.

Bemerkung. Proposition gilt nicht für unendlich dimensionale Vektorräume. Im Allge-


meinen gilt nur

Φ𝑉 (𝑣) ⊂ 𝑉 ** .

injektiv

Definition 6.52
Seien 𝑉, 𝑊 zwei 𝐾-Vektorräume und 𝑓 : 𝑉 → 𝑊 eine lineare Abbildung. Die zu
𝑓 duale Abbildung ist

𝑓* : 𝑊* → 𝑉 *
𝜑 ↦→ 𝑓 * (𝜑) := 𝜑 ∘ 𝑓.

𝑓
𝑉 𝑊
𝜑
𝜑·𝑓
𝐾

67
Proposition 6.53
Es gilt

1 𝑓 * ist eine lineare Abbildung.

2 Sei 𝑓 ∈ Hom(𝑉, 𝑊 ) und sei 𝑓 ** = (𝑓 * )* die duale Abbildung der dualen Abbildung.
Dann gilt
𝑓 ** ∘ Φ𝑉 = Φ𝑊 ∘ 𝑓.
𝑓
𝑉 𝑊
Φ𝑉 Φ𝑊
𝑓 **
𝑉 ** 𝑊 **

Beweis.

1 Übung: Zum Selber-Nachdenken und -Rechnen

2 Sei 𝑣 ∈ 𝑉, 𝜑 ∈ 𝑊 *

((𝑓 ** ∘ Φ𝑉 )(𝑣))(𝜑) = Φ𝑉 (𝑣)(𝑓 * (𝜑))


= 𝑓 * (𝜑)(𝑣)
= 𝜑(𝑓 (𝑣))
= (Φ𝑊 (𝑓 (𝑣)))(𝜑)
= ((Φ𝑊 ∘ 𝑓 )(𝑣))(𝜑).

Korollar 6.54. Sei 𝑓 : 𝑉 → 𝑊 linear. Dann gibt es einen natürlichen Isomorphismus

(𝑊/ im(𝑓 ))* ∼


= ker(𝑓 * : 𝑊 * → 𝑉 * ).

Beweis.

1
(𝑊/ im(𝑓 ))* = Hom(𝑊/ im(𝑓 ), 𝐾)

ker(𝑓 * ) = { 𝜑 : 𝑊 → 𝐾 | 𝑓 * (𝜑) = 0 }
={ 𝜑:𝑊 →𝐾 | 𝜑∘𝑓 =0 }
= { 𝜑 : 𝑊 → 𝐾 | im(𝑓 ) ⊂ ker(𝜑) }.

Also folgt die Aussage aus dem Korollar 6.46.

68
Satz 6.55 (Rangsatz)
Seien 𝑉, 𝑊 endlich dimensional und 𝑓 : 𝑉 → 𝑊 eine lineare Abbildung. Dann gilt

Rang(𝑓 ) = dim(im(𝑓 )) = dim(im(𝑓 * ) = Rang(𝑓 * ).

Beweis.

Rang(𝑓 * ) = dim(im(𝑓 * ))
= dim(𝑊 * ) − dim(ker(𝑓 * ))
Satz 6.37
= dim(𝑊 * ) − dim((𝑊/ im(𝑓 ))* )
Korollar 6.54
= dim(𝑊 ) − dim(𝑊/ im(𝑓 ))
Korollar 6.50
= dim(𝑊 ) − (dim(𝑊 ) − dim(im(𝑓 )))
Satz 6.44
= dim(im(𝑓 ))
= Rang(𝑓 ).

7 Matrizen & Lineare Gleichungssysteme


Matrizen beschreiben auf effiziente Weise lineare Abbilungen zwischen Vektorräumen.
Im ganzen Kapitel sei 𝐾 ein Körper.

7.1 Matrizenrechnung
Definition 7.1

1 Eine 𝑚 × 𝑛-Matrix 𝐴 mit Einträgen in 𝐾 ist ein rechteckiges Schema mit 𝑚 Zeilen
und 𝑛 Spalten und Einträgen in 𝐾. (𝐴)𝑖𝑗 = 𝑎𝑖𝑗 heißen Koeffizienten.

𝑎11 𝑎12 . . . 𝑎1𝑛


⎛ ⎞
.. ⎟
⎜𝑎 𝑎22 . ⎟

𝐴 = ⎜ .21 .. .. ⎟ = (𝑎𝑖𝑗 )𝑚 𝑛
𝑖=1 𝑗=1 mit 𝑎𝑖𝑗 ∈ 𝐾.
⎝ .. . . ⎠
𝑎𝑚1 . . . . . . 𝑎𝑚𝑛

69
2 Mat(𝑚, 𝑛; 𝐾) bezeichnet die Menge aller 𝑚 × 𝑛-Matrizen. Mit den Verknüpfungen

𝐴 + 𝐵 = (𝑎𝑖𝑗 ) + (𝑏𝑖𝑗 ) = ((𝑎𝑖𝑗 ) + (𝑏𝑖𝑗 ))𝑚 𝑛


𝑖=1 𝑗=1
𝑎11 + 𝑏11 𝑎12 + 𝑏12 . . . 𝑎1𝑛 + 𝑏1𝑛
⎛ ⎞
..
⎜𝑎 +𝑏 .
⎜ ⎟
= ⎜ 21 . 21 .

. .

⎝ . . ⎠
𝑎𝑚1 + 𝑏𝑚1 ... . . . 𝑎𝑚𝑛 + 𝑏𝑚𝑛

und für 𝑘 ∈ 𝐾:

𝑘𝐴 = 𝑘(𝑎𝑖𝑗 )𝑚 𝑛 𝑚 𝑛
𝑖 = 1 𝑗 = 1 = (𝑘𝑎𝑖𝑗 )𝑖 = 1 𝑗 = 1
⎛ ⎞
𝑘𝑎11 . . . 𝑘𝑎1𝑛
= ⎝ ... .. ⎟
. ⎠

𝑘𝑎𝑚1 . . . 𝑘𝑎𝑚𝑛

wird Mat(𝑚, 𝑛; 𝐾) ein 𝐾-Vektorraum. Das Nullelement ist 0 = (𝑎𝑖𝑗 = 0)𝑚


𝑖=1 𝑗=1 .
𝑛

3 Für 1 ≤ 𝑖 ≤ 𝑚 ist (𝑎𝑖𝑗 )𝑛𝑗 = 1 ∈ Mat(1, 𝑛; 𝐾) der 𝑖-te Zeilenvektor von 𝐴.


Für 1 ≤ 𝑗 ≤ 𝑛 ist (𝑎𝑖𝑗 )𝑖 = 1 ∈ Mat(𝑚, 1; 𝐾) der 𝑗-te Spaltenvektor von 𝐴.
𝑚

𝑎11 𝑎12 . . . 𝑎1𝑛


⎛ ⎞
. ⎟
⎜𝑎 𝑎22 . . . .. ⎟ 2-te Zeilenvektor

𝐴 = ⎜ .21 .. .. ⎟
⎝ .. . . ⎠
𝑎𝑚1 . . . . . . 𝑎1𝑛
1-te Spaltenvektor

Beispiel.
1
⎛ ⎞
1 2
3⎠
𝐴 = ⎝2 5
∈ Mat(3, 2; Q)
3 1
⎛ ⎞
1 0
𝐵= 0⎝ 0⎠ ∈ Mat(3, 2; Q)
0 1
1
⎛ ⎞
2 2
3⎠
𝐴+𝐵 = 2

5
3 2

70
Zeilenvektoren von 𝐴
(︀ 1 )︀
1 ∈ Mat(1, 2; Q)
(︀ 23 )︀
2
(︀ 5 )︀
3 1
⎛ ⎞ ⎛1⎞
1 2
Spalenvektoren von 𝐴 ⎝2⎠ ⎝ 3 ⎠ ∈ Mat(3, 1; Q)
5
3 1

⎛ ⎞
2 1
2 · 𝐴 = ⎝4 65 ⎠
6 2

Bemerkung 7.2. Eine Basis von Mat(𝑚, 𝑛; 𝐾) ist gegeben durch


{︂ ⃒ (︂ )︂ }︂
𝑎𝑏 ⃒ 1 ≤ 𝑎 ≤ 𝑚

𝐸 ⃒ 1≤𝑏≤𝑛

𝑏-te Spalte
⎛ ⎞
0 ... ... 0 ... ... 0
⎜ .. ..
⎜. .

0⎟
⎜.
⎜.

⎜. 0 0⎟
{︃ ⎟
1 𝑎=𝑖∧𝑏=𝑗
(𝐸 𝑎𝑏 )𝑖𝑗 = 𝐸 (𝑎𝑏) = ⎜0 . . . 0 1 0 . . . 0⎟ 𝑎-te Zeile
⎜ ⎟
0 𝑠𝑜𝑛𝑠𝑡 ⎜.
⎜ ..

0 0⎟
⎜ .. ..
⎜ ⎟
⎝. .

0⎠
0 ... ... 0 ... ... 0

Insbesondere gilt: dim(Mat(𝑚, 𝑛; 𝐾)) = 𝑚 · 𝑛.


In der Tat gilt:
𝑚 ∑︁
∑︁ 𝑛
𝐴= 𝑎𝑖𝑗 𝐸 𝑖𝑗
𝑖=1 𝑗=1

Für Mat(𝑚, 1; 𝐾), den Raum der Spaltenvektoren, schreiben wir


⎛ ⎞
0
⎜ .. ⎟
⎜.⎟
⎜ ⎟
⎜0⎟
𝑎1
⎜ ⎟
𝑒𝑎 = 𝐸 = ⎜ ⎜1⎟ ← 𝑎-te-Zeile

⎜0⎟
⎜ .. ⎟
⎜ ⎟
⎝.⎠
0

71
Definition 7.3 (Matrixprodukt)
Für 𝐴 = (𝑎𝑖𝑗 )𝑚 𝑖 = 1 𝑗 = 1 ∈ Mat(𝑚, 𝑛; 𝐾) und 𝐵 = (𝑏𝑖𝑗 )𝑖 = 1 𝑗 = 1 ∈ Mat(𝑛, 𝑜; 𝐾)
𝑛 𝑚 𝑛
definieren wir das Matrixprodukt
𝑛
𝑎𝑖𝑗 𝑏𝑗𝑘 )𝑚 𝑜
∑︁
𝐴 · 𝐵 := ( 𝑖 = 1 𝑘 = 1 ∈ Mat(𝑛, 𝑜; 𝐾)
𝑗=1

𝑎11
𝑎12 . . . 𝑎1𝑛 𝑏11 . . . . . . 𝑏1𝑜
⎛ ⎞ ⎛ ⎞
.. ⎟ ⎜ .. .. ⎟
⎜ 𝑎21 . ⎟ ⎜ . . ⎟

𝐴=⎜ . . 𝐵=⎜ . .. ⎟
⎝ .. .. ⎠ ⎝ ..

. ⎠
𝑎𝑚1 . . . . . . 𝑎𝑚𝑛 𝑏𝑛1 . . . . . . 𝑏𝑛𝑜
⎛ ∑︀𝑛 ∑︀𝑛 ⎞
𝑗=1 𝑎1𝑗 𝑏𝑗1 ... 𝑗=1 𝑎1𝑗 𝑏𝑗𝑜
.. ..
𝐴·𝐵 =⎝ . .
⎜ ⎟

∑︀𝑛 ∑︀𝑛
𝑗=1 𝑎𝑚𝑗 𝑏𝑗1 . . . 𝑗=1 𝑎𝑚𝑗 𝑏𝑗𝑜

Achtung: 𝐴 · 𝐵 ist nur definiert, wenn die Anzahl der Spalten von 𝐴 gleich der Anzahl
der Zeilen von 𝐵 ist.

(𝐴 · 𝐵)𝑖𝑗 = 𝑖-te Zeile von 𝐴 mal die 𝑗-te Spalte von 𝐵

Achtung: Wenn 𝐴 · 𝐵 definiert ist, muss 𝐵 · 𝐴 nicht unbedingt definiert sein.


Selbst wenn 𝐵 · 𝐴 definiert ist, gilt im Allgemeinen nicht, dass

𝐴 · 𝐵 gleich 𝐵 · 𝐴

z.B: (︂ )︂ (︂ )︂ (︂ )︂ (︂ )︂
0 1 1 0 0 0 0 1
𝐴= , 𝐵= , 𝐴·𝐵 = , 𝐵·𝐴=
0 0 0 0 0 0 0 0

Beispiel.

1 (︂ )︂ (︂ 1 )︂ (︂ 1 )︂ (︂ 5 )︂
1 2 +2
𝐴= , 𝐵= 2 , 𝐴·𝐵 = 2
3 = 2
11
3 4 1 2
+4 2

2
(︀ )︀
𝐴= 1 2 ∈ Mat(1, 2; Q)
(︂ )︂
3
𝐵= ∈ Mat(2, 1; Q)
4
(︀ )︀ (︀ )︀
𝐴 · 𝐵 = 1 · 3 + 2 · 4 = 11 ∈ Mat(1, 1; Q)

72
3
⎛ ⎞
1 2
𝐴 = ⎝3 4 ⎠ ∈ Mat(3, 2; Q)
5 6
(︂ )︂
1 3 5
𝐵= ∈ Mat(2, 3; Q)
2 4 6
⎛ ⎞
5 11 17
𝐴 · 𝐵 = ⎝11 25 39⎠ ∈ Mat(3, 3; Q)
17 39 61

Proposition 7.4
Seien 𝐴, 𝐴′ ∈ Mat(𝑚, 𝑛; 𝐾)
und 𝐵, 𝐵 ′ ∈ Mat(𝑛, 𝑜; 𝐾)
und 𝐶 ∈ Mat(𝑜, 𝑝; 𝐾).
Dann gilt:

1
𝐴 · (𝐵 · 𝐶) = (𝐴 · 𝐵) · 𝐶 ∈ Mat(𝑚, 𝑝; 𝐾) Assoziativität

(𝐴 + 𝐴′ ) · 𝐵 = 𝐴 · 𝐵 + 𝐴′ · 𝐵 ∈ Mat(𝑚, 𝑜; 𝐾)
𝐴 · (𝐵 + 𝐵 ′ ) = 𝐴 · 𝐵 + 𝐴 · 𝐵 ′ ∈ Mat(𝑚, 𝑜; 𝐾)

3 Für 𝑘 ∈ 𝐾
𝐴 · (𝑘𝐵) = 𝑘(𝐴 · 𝐵) = (𝑘𝐴) · 𝐵

Beweis: Nachrechnen (Übung!)

Korollar 7.5. Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾). Die Abbildung

𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾)
𝐵 ↦→ 𝐴 · 𝐵

ist ein Vektorraumhomorphismus, also eine lineare Abbildung.


Spezialfall: 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾), 𝑜 = 1

𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾)
𝑣 ↦→ 𝐴 · 𝑣

73
𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) :
𝑎11 𝑎12 . . . 𝑎1𝑛
⎛ ⎞
.. ⎟
⎜𝑎 . ⎟

𝐴 = ⎜ .21 .. ⎟ = (𝑎𝑖𝑗 )𝑚 𝑛
𝑖=1 𝑗=1 𝑎𝑖𝑗 ∈ 𝐾
⎝ .. . ⎠
𝑎𝑚1 . . . . . . 𝑎𝑚𝑛

Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾)
𝐵 ∈ Mat(𝑛, 𝑜; 𝐾)
𝐴 · 𝐵 ∈ Mat(𝑚, 𝑜; 𝐾)
𝑛
∑︁
(𝐴 · 𝐵)𝑖𝑗 = 𝑎𝑖𝑗 𝑏𝑗𝑘 = 𝑖-te Zeile von A · 𝑗-te Spalte von B
𝑗=1

𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾)
Spezialfall 𝑜 = 1; 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾)
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾)
⎛ ⎞ ⎛ ∑︀𝑛 ⎞
𝑏1 𝑗=1 𝑎1𝑗 𝑏𝑗
𝑏 = ⎝ ... ⎠ ↦→ 𝐴 · 𝑏 = ⎝ ..
.
⎜ ⎟ ⎜ ⎟

∑︀𝑛
𝑏𝑛 𝑗=1 𝑎𝑚𝑗 𝑏𝑗

Proposition 7.6
1 Die Zuordnung
Mat(𝑚, 𝑛; 𝐾) → Hom(Mat(𝑛, 1; 𝐾), Mat(𝑚, 1; 𝐾))
𝐴 ↦→ 𝐴∙
ist ein Isomorphismus von Vektorräumen.
2 Es gilt: für 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) und 𝐴′ ∈ Mat(𝑙, 𝑚; 𝐾)
𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾)
𝐴′ ∙; Mat(𝑚, 𝑜; 𝐾) → Mat(𝑙, 𝑜; 𝐾)
(𝐴′ ∙) ∘ (𝐴∙) = (𝐴′ · 𝐴)∙

Hier
𝐴′ · 𝐴 ∈ Mat(𝑙, 𝑛; 𝐾)
(𝐴′ · 𝐴)∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑙, 𝑜; 𝐾)

74
Beweis.

1 z.z: die Zuordnung 𝐴 ↦→ 𝐴∙ ist eine lineare Abbildung. Nach Proposition 7.4 gilt
∀ 𝐵 ∈ Mat(𝑛, 𝑙; 𝐾)

(𝑘𝐴) · 𝐵 = 𝑘(𝐴 · 𝐵)
und (𝐴 + 𝐴′ ) · 𝐵 = 𝐴 · 𝐵 + 𝐴′ · 𝐵.

Also ist 𝐴 ↦→ 𝐴∙ linear. Wir bemerken, dass

dim(Mat(𝑚, 𝑛; 𝐾)) = 𝑚 · 𝑛 = dim(Hom(Mat(𝑛, 1; 𝐾), Mat(𝑚, 1; 𝐾))).

Also reicht es zu zeigen, dass die Zuordnung 𝐴 ↦→ 𝐴∙ injektiv ist.


Sei (𝐴∙) = 0, d.h. (𝐴∙)(𝑣) = 0 für alle 𝑣 ∈ Mat(𝑛, 1; 𝐾).
Insbesondere gilt für die Basisvektoren
⎛ ⎞
0
⎜ .. ⎟
⎜.⎟
⎜ ⎟
⎜0⎟
⎜1⎟ ← 𝑗-te Stelle
⎜ ⎟
𝑒𝑗 = ⎜ ⎟ 1≤𝑗≤𝑛
⎜0⎟
⎜ .. ⎟
⎜ ⎟
⎝.⎠
0
⎛ ⎞
𝑎1𝑗
𝐴 · 𝑒𝑗 = ⎝ ... ⎠ = 0
⎜ ⎟
𝑎𝑚𝑗

d.h. 𝑎𝑖𝑗 = 0 für alle 1 ≤ 𝑖 ≤ 𝑚


für alle 1 ≤ 𝑗 ≤ 𝑛.
Also 𝐴 = 0 und 𝐴 → 𝐴∙ ist injektiv und, da die Dimensionen der Vektorräume
gleich sind, auch surjektiv.

2 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) 𝐴′ ∈ Mat(𝑙, 𝑚; 𝐾)
z.z.: (𝐴′ ∙) ∘ (𝐴∙) = (𝐴′ · 𝐴)∙ Dies folgt aus der Assoziativität des Matrixprodukts

𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾)
𝐴′ ∙ : Mat(𝑚, 𝑜; 𝐾) → Mat(𝑙, 𝑜; 𝐾)
(𝐴′ · 𝐴)∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑙, 𝑜; 𝐾).

Sei 𝐵 ∈ Mat(𝑛, 𝑜; 𝐾).

(𝐴′ ∙) ∘ (𝐴∙)(𝐵) = (𝐴′ ∙)(𝐴 · 𝐵) = 𝐴′ · (𝐴 · 𝐵) = (𝐴′ · 𝐴) · 𝐵 = (𝐴′ · 𝐴)∙(𝐵)

75
Bemerkung. Für 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) definiert 𝐴∙ einen Endomorphismus von Mat(𝑛, 1; 𝐾).

Definition 7.7 ⎛ ⎞
10
Die Matrix 1 = ⎝ . . . ⎠ ∈ Mat(𝑛, 𝑛; 𝐾) heißt die Einheitsmatrix. Es gilt für alle
⎜ ⎟
0 1
𝐴 ∈ Mat(𝑚, 𝑛; 𝐾)
1𝑚 · 𝐴 = 𝐴 = 𝐴 · 1𝑛
und
1𝑚 ∙ : Mat(𝑚, 𝑛; 𝐾) → Mat(𝑚, 𝑛; 𝐾)
ist die Identitätsabbildung.

Proposition 7.8
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Dann sind folgende Aussagen äquivalent:

1 Die Abbildung
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
ist bijektiv.

2 ∃𝐵 ∈ Mat(𝑛, 𝑛; 𝐾) mit 𝐵 · 𝐴 = 1𝑛 . 𝐵 ist eindeutig und es gilt auch 𝐴 · 𝐵 = 1𝑛 . 𝐵


wird die inverse Matrix zu 𝐴 genannt. Wir schreiben 𝐵 = 𝐴−1 .

Beweis.

1 ⇒ 2 Sei 𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾) bijektiv und 𝑔 die Umkehrabbildung. Nach


Proposition 7.6 1 gibt es eine eindeutige Matrix 𝐵 ∈ Mat(𝑛, 𝑛; 𝐾), so dass 𝑔 = 𝐵 ∙.
Es gilt daher
𝑖𝑑Mat(𝑛,1;𝐾) = 𝑔 · (𝐴)∙ = (𝐵 ∙) ∘ (𝐴∙) = (𝐵 · 𝐴)∙
Proposition 7.6 1 impliziert, dass 𝐵 · 𝐴 = 1𝑛 . Da für die Umkehrabbildung 𝑔 gilt

𝑖𝑑Mat(𝑛,1;𝐾) = (𝐴∙) ∘ 𝑔 = (𝐴∙) ∘ (𝐵 ∙) = (𝐴 · 𝐵)∙

Also gilt auch 𝐴 · 𝐵 = 1𝑛 . Eindeutigkeit folgt aus der Eindeutigkeit der Umkehrab-
bildung und Proposition 7.6 1 .

2 ⇒ 1 Sei 𝐵 ∈ Mat(𝑛, 𝑛; 𝐾) mit 𝐵 · 𝐴 = 1𝑛 . Dann gilt für alle 𝑥 ∈ Mat(𝑛, 1; 𝐾)

𝑥 = 1𝑛 · 𝑥 = (𝐵 · 𝐴) · 𝑥 = 𝐵 · (𝐴 · 𝑥)

Also gilt falls 𝐴 · 𝑥 = 0 auch 𝑥 = 0. Also ker(𝐴∙) = {0} und daher 𝐴∙ injektiv. Da
dim(Mat(𝑛, 1; 𝐾)) = dim(Mat(𝑛, 1; 𝐾)), ist 𝐴∙ also auch bijektiv.

76
Definition 7.9

1 Eine Matrix 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) heißt invertierbar, falls eine der Bedingungen in


Proposition 7.8 erfüllt ist.

2 Die Teilmenge

𝐺𝐿𝑛 (𝐾) := {𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) | A ist invertierbar}

mit der Matrixmultiplikation ist eine Gruppe (Übung). Sie heißt die
allgemeine lineare Gruppe. Das neutrale Element ist 1𝑛 .

Beachte: (𝐴 · 𝐵)−1 = 𝐵 −1 · 𝐴−1

Beispiel.
(︂ )︂
𝑎 𝑏
1 𝐴= mit 𝑎𝑑 − 𝑏𝑐 ̸= 0. Dann ist
𝑐 𝑑
(︂ )︂
−1 1 𝑑 −𝑏
𝐴 =
𝑎𝑑 − 𝑏𝑐 −𝑐 𝑎

Warum?
(︂ )︂ (︂ )︂ (︂ )︂
−1 1 𝑎𝑑 − 𝑏𝑐 −𝑎𝑏 + 𝑏𝑎 1 𝑎𝑑 − 𝑏𝑐 0 1 0
𝐴·𝐴 = = =
𝑎𝑑 − 𝑏𝑐 𝑐𝑑 − 𝑑𝑐 𝑐𝑏 + 𝑑𝑎 𝑎𝑑 − 𝑏𝑐 0 𝑐𝑏 + 𝑑𝑎 0 1

0⎟
⎛ ⎞
𝑘1
⎜ 𝑘2
𝐵=⎜ ... ⎟ 𝑘𝑖 ∈ 𝐾 ∖ {0}
⎜ ⎟
⎝ ⎠
0 𝑘𝑛
𝑘1−1
⎛ ⎞
..
0⎟
𝐵 −1 = ⎝ . Nachrechnen!


0 𝑘𝑛−1

77
3
⎛ ⎞
1 𝑎 𝑏
𝐶= 0 ⎝ 1 𝑐⎠ 𝑎, 𝑏, 𝑐 ∈ 𝐾
0 0 1
⎛ ⎞
1 −𝑎 −𝑏 + 𝑎𝑐
Dann −1
𝐶 = ⎝0 1 −𝑐 ⎠
0 0 1
⎛ ⎞ ⎛ ⎞
1 0 −𝑏 + 𝑎𝑐 − 𝑎𝑐 + 𝑏 1 0 0
Denn 𝐶 · 𝐶 −1 = ⎝0 1 0 ⎠ = ⎝0 1 0⎠
0 0 1 0 0 1

4 Gegenbeispiel, d.h. 𝐴 ist nicht invertierbar:


(︂ )︂
1 1
𝐴= ist nicht invertierbar.
1 1
⎛ ⎞
1
⎜ 0
⎟ ist nicht invertierbar.

𝐵=⎜ ⎝ 2 ⎠
3
Definition 7.10
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾). Die lineare Hülle aller Spaltenvektoren
(𝑎𝑖𝑗 )𝑚
𝑖 = 1 ∈ Mat(𝑚, 1; 𝐾) 1≤𝑗≤𝑛
nennt man den Spaltenraum von 𝐴. Die Dimension des Spaltenraums nennt man den
Spaltenrang von 𝐴, Spaltenrang(𝐴). Analog definiert man den Zeilenraum von 𝐴 als die
lineare Hülle aller Zeilenvektoren von 𝐴
(𝑎𝑖𝑗 )𝑛
𝑗 = 1 ∈ Mat(1, 𝑛; 𝐾) 1≤𝑖≤𝑚
und den Zeilenrang(𝐴) = dim(Zeilenraum(𝐴)).

Bemerkung 7.11. Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾). Der Spaltenrang von 𝐴 ist gleich der Rang der
linearen Abbildung
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾)
Beweis.
Rang(𝐴∙) = dim(im(𝐴))
Betrachte { 𝑒𝑗 | 1 ≤ 𝑗 ≤ 𝑛 } Basis von Mat(𝑛, 1; 𝐾)
⎛ ⎞
𝑎1𝑗
𝐴 · 𝑒𝑗 = ⎝ ... ⎠ ist der 𝑗-te Spaltenvektor von 𝐴.
⎜ ⎟
𝑎𝑚𝑗
Daher ist der Spaltenraum von 𝐴 genau das Bild der Abbildung (𝐴∙).
Also Spaltenrang(𝐴) = Rang(𝐴∙).

78
Proposition 7.12
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾), sei 𝐵 ∈ 𝐺𝐿𝑛 (𝐾) und 𝐶 ∈ 𝐺𝐿𝑚 (𝐾). Dann gilt

1 Spaltenrang(𝐴) = Spaltenrang(𝐴 · 𝐵)

2 Spaltenrang(𝐴) = Spaltenrang(𝐶 · 𝐴 · 𝐵)

Beweis.

1 Sei 𝐵 ∈ 𝐺𝐿𝑛 (𝐾) ⇒ 𝐵 ∙ ist bijektiv. Also

𝐵 ∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)

Spaltenraum(𝐴 · 𝐵) = im((𝐴 · 𝐵)∙) = im((𝐴∙) ∘ (𝐵 ∙)) = im(𝐴∙) = Spaltenraum(𝐴)

2 Sei 𝐶 ∈ 𝐺𝐿𝑚 (𝐾). Dann ist

𝐶 ∙ : Mat(𝑚, 1; 𝐾) → Mat(𝑚, 1; 𝐾)

bijektiv. Daraus folgt



𝐶 ⃒im((𝐴·𝐵)∙) : im((𝐴 · 𝐵)∙) → (𝐶 ∙) ∘ (im((𝐴 · 𝐵)∙) = im((𝐶 · 𝐴 · 𝐵)∙)

Also

Spaltenrang(𝐴 · 𝐵) = dim(im((𝐴 · 𝐵)∙)


= dim(im((𝐶 · 𝐴 · 𝐵)∙))
= Spaltenrang(𝐶 · 𝐴 · 𝐵).

Definition 7.13
Für eine Matrix 𝐴 = (𝑎𝑖𝑗 )𝑚
𝑖 = 1 𝑗 = 1 ∈ Mat(𝑚, 𝑛; 𝐾) definiert man die
𝑛
transponierte Matrix

𝐴𝑇 := (𝑎𝑗𝑖 )𝑛 𝑚
𝑗 = 1 𝑖 = 1 ∈ Mat(𝑛, 𝑚; 𝐾)
⎞𝑇 ⎛
𝑎11 𝑎12 . . . 𝑎1𝑛 𝑎11 𝑎21 . . . 𝑎𝑚1
⎛ ⎞
.. ⎟ .. ⎟
⎜ 𝑎21 𝑎22 . ⎟ ⎜ 𝑎12 𝑎22 . ⎟
⎜ ⎜
⎜ . .. ⎟ =⎜ . .. ⎟
⎝ .. . ⎠ ⎝ .. . ⎠
𝑎𝑚1 . . . . . . 𝑎𝑚𝑛 𝑎1𝑛 . . . . . . 𝑎𝑚𝑛

Spiegelung an der Diagonalen

79
Beispiel.
⎛ ⎞
1 4
𝐴 = ⎝2 5⎠
3 6
(︂ )︂
1 2 3
𝐴𝑇 =
4 5 6

Proposition 7.14
Es gilt:

1 (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵 𝑇 𝐴, 𝐵 ∈ Mat(𝑚, 𝑛; 𝐾)

2 (𝑘𝐴)𝑇 = 𝑘(𝐴𝑇 ) 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾), 𝑘 ∈ 𝐾


𝑇
3 (𝐴)𝑇 = 𝐴 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾)

4 (𝐴 · 𝐵)𝑇 = 𝐵 𝑇 · 𝐴𝑇 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾), 𝐵 ∈ Mat(𝑛, 𝑜; 𝐾)


−1 𝑇
5 (𝐴𝑇 ) = (𝐴−1 ) für 𝐴 ∈ 𝐺𝐿𝑛 (𝐾)

Beweis.
Einfaches Nachrechnen (Übung!).

Bemerkung 7.15.

( )𝑇 : Mat(𝑚, 𝑛; 𝐾) → Mat(𝑛, 𝑚; 𝐾)
𝐴 ↦→ 𝐴𝑇

ist ein Vektorraumisomorphismus.

Beweis.

1 ( )𝑇 ist linear (Proposition 7.14 1 , 2 )



2 Injektivität ist klar

3 dim(Mat(𝑚, 𝑛; 𝐾)) = 𝑚 · 𝑛 = dim(Mat(𝑛, 𝑚; 𝐾))

Bemerkung.

(Zeilenraum(𝐴))𝑇 = Spaltenraum(𝐴𝑇 )
Zeilenrang(𝐴) = Spaltenrang(𝐴𝑇 )

80
7.2 Matrizen und lineare Abbildungen
Zur Erinnerung: Sei 𝐾 ein Körper und 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾).
⎛ ⎞
𝑎11 𝑎12 . . . 𝑎1𝑛
⎟ ← 2-te Zeile
⎜ 𝑎21 𝑎22 . . . 𝑎2𝑛 ⎟
𝐴 ∈ (𝑎𝑖𝑗 )𝑚 𝑛
𝑖=1 𝑗=1 =⎜ . .. ⎟

⎝ .. . ⎠
𝑎𝑚1 . . . . . . 𝑎𝑚𝑛

𝑛-te Spalte

Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾); 𝐵 ∈ Mat(𝑛, 𝑜; 𝐾). Dann folgt:

(𝐴 · 𝐵) ∈ Mat(𝑚, 𝑜; 𝐾)
𝑛
∑︁
(𝐴 · 𝐵)𝑖𝑗 = 𝑎𝑖𝑙 𝑏𝑙𝑗 .
𝑙=1

Das ist das innere Produkt der 𝑖-ten Zeile von 𝐴 mit der 𝑗-ten Spalte von B.
𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾).
Spezialfall, falls 𝑜 = 1:
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾).
Standardbasis {𝑒1 , . . . 𝑒𝑛 } von Mat(𝑛, 1; 𝐾).
⎛ ⎞
0
⎜ .. ⎟
⎜.⎟
⎜ ⎟
⎜0⎟
⎜1⎟ ← 𝑖-te Zeile
⎜ ⎟
𝑒𝑖 = ⎜ ⎟
⎜0⎟
⎜ .. ⎟
⎜ ⎟
⎝.⎠
0

Mat(𝑛, 1; 𝐾) −→ 𝐾 𝑛
𝑒𝑖 ↦−→ 𝑒𝑖 = (0, . . . , 0, 1 , 0, . . . , 0).
𝑖-te Stelle

Definition 7.16
Sei 𝑉 ein endlich dimensionaler Vektorraum über 𝐾. Eine geordnete Basis 𝒜 von 𝑉 ist
ein Element 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) ∈ 𝑉 𝑛 , so dass die Teilmenge

{𝑣1 , . . . , 𝑣𝑛 } ⊂ 𝑉
eine Basis von 𝑉 ist.

81
Satz 7.17 (Matrixdarstellung)
Seien 𝑉, 𝑊 endlich-dimensionale 𝐾−Vektorräume und 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) und ℬ =
(𝑤1 , . . . , 𝑤𝑛 ) geordnete Basen. Dann gibt es für jede lineare Abbildung

𝑓 ∈ Hom(𝑉, 𝑊 )

genau eine Matrix

Mat𝒜ℬ (𝑓 ) = 𝐴 = (𝑎𝑖𝑗 )𝑚 𝑛
𝑖 = 1 𝑗 = 1 ∈ Mat(𝑚, 𝑛; 𝐾)

so dass 𝑚
∑︁
𝑓 (𝑣𝑗 ) = 𝑎𝑖𝑗 𝑤𝑖 .
𝑖=1

Man nennt 𝐴 = Mat𝒜ℬ (𝑓 ) die Matrixdarstellung von 𝑓 bezüglich 𝐴 und 𝐵.

1 Die so erhaltene Abbildung

Mat𝒜ℬ : Hom(𝑉, 𝑊 ) −→ Mat(𝑚, 𝑛; 𝐾)


𝑓 ↦−→ 𝐴 = Mat𝒜ℬ (𝑓 ).

ist ein Isomorphismus von Vektorräumen.

2 Sei

𝑖𝐴 : Mat(𝑛, 1; 𝐾) −→ 𝑉
⎛ ⎞
𝑥1 𝑛
⎜ .. ⎟ ∑︁
⎝ . ⎠ ↦−→ 𝑥𝑗 𝑣𝑗
𝑥𝑛 𝑗=1

der Vektorraumisomorphismus, der die Standardbasis (𝑒1 , . . . , 𝑒𝑛 ) von Mat(𝑛, 1; 𝐾)


auf die Basis 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) abbildet, und analog

𝑖𝐵 : Mat(𝑚, 1; 𝐾) −→ 𝑊,

so gilt
𝑓 ∘ 𝑖𝐴 = 𝑖𝐵 ∘ (Mat𝒜ℬ (𝑓 )∙);
das heißt, das Diagramm
𝑓
𝑉 𝑊
𝑖𝐴 𝑖𝐵
Mat𝒜ℬ (𝑓 )∙
Mat(𝑛, 1; 𝐾) Mat(𝑚, 1; 𝐾)
kommutiert.

82
3 Sei 𝑈 ein endlich dimensionaler 𝐾-Vektorraum mit geordneter Basis 𝒞 und 𝑔 ∈
Hom(𝑊, 𝑈 ), so gilt

Mat𝒜𝒞 (𝑔 ∘ 𝑓 ) = Matℬ𝒞 (𝑔) · Mat𝒜ℬ (𝑓 ).

Beweis.

0 Zeige, dass die Zuordnung

𝑓 ↦−→ 𝐴 = Mat𝒜ℬ (𝑓 )

wohldefiniert ist. Da ℬ = (𝑤1 , . . . , 𝑤𝑛 ) eine Basis ist, lässt sich jeder Vektor 𝑤 ∈ 𝑊
eindeutig als Linearkombination der 𝑤𝑖 schreiben. Dies gilt insbesondere für 𝑓 (𝑣𝑗 ).
Also sind die Matrixeinträge
(𝑎𝑖𝑗 )𝑚 𝑛
𝑖=1 𝑗=1
eindeutig bestimmt, und somit die Abbildung

Mat𝒜ℬ : Hom(𝑉, 𝑊 ) −→ Mat(𝑚, 𝑛; 𝐾)


𝑓 ↦−→ 𝐴 = Mat𝒜ℬ (𝑓 ).

1 Die Linearität dieser Abbildung sieht man leicht, da

(𝑓 + 𝑔)(𝑣𝑗 ) = 𝑓 (𝑣𝑗 ) + 𝑔(𝑣𝑗 )


(𝑘 · 𝑓 )(𝑣𝑗 ) = 𝑘 · 𝑓 (𝑣𝑗 )

Bijektivität: Da dim Hom(𝑉, 𝑊 ) = 𝑚 · 𝑛 = dim Mat(𝑚, 𝑛; 𝐾), reicht es zu zeigen,


dass Mat𝒜ℬ injektiv ist. Die lineare Abbildung 𝑓 ist durch die Bilder einer Basis
bestimmt, d.h. 𝑓 ist bestimmt durch

𝑓 (𝑣𝑗 ) 1 ≤ 𝑗 ≤ 𝑛.

Diese sind durch die Matrix 𝐴 bestimmt, da


𝑚
∑︁
𝑓 (𝑣𝑗 ) = 𝑎𝑖𝑗 𝑤𝑖 .
𝑖=1

Also bestimmt 𝐴 = Mat𝒜ℬ (𝑓 ) die lineare Abbildung 𝑓 eindeutig.

𝑖𝐴
Mat(𝑛, 1; 𝐾) 𝑉
2 Mat𝒜ℬ (𝑓 )∙ 𝑓
𝑖𝑏
Mat(𝑚, 1; 𝐾) 𝑊

83
Wir wollen zeigen, dass

𝑓 ∘ 𝑖𝐴 = 𝑖𝐵 ∘ (Mat𝒜ℬ (𝑓 )∙).

Wir sehen nach: Sei


⎞ ⎛
𝑥1
𝐴 = Mat𝒜ℬ (𝑓 ) und 𝑥 = ⎝ ... ⎠ ∈ Mat(𝑛, 1; 𝐾).
⎜ ⎟
𝑥𝑛

𝑛
∑︁ 𝑛
∑︁
𝑓 ∘ 𝑖𝐴 (𝑥) = 𝑓 ( 𝑥𝑗 𝑣𝑗 ) = 𝑥𝑗 𝑓 (𝑣𝑗 )
𝑗=1 𝑗=1
𝑛
∑︁ 𝑚
∑︁ 𝑚
∑︁ 𝑛
∑︁
= 𝑥𝑗 ( 𝑎𝑖𝑗 𝑤𝑖 ) = ( 𝑎𝑖𝑗 𝑥𝑗 )𝑤𝑖
𝑗=1 𝑖=1 𝑖=1 𝑗=1
𝑚
∑︁
= (𝐴∙𝑥)𝑖 𝑤𝑖 = 𝑖𝐵 ((𝐴∙)(𝑥))
𝑖=1
= 𝑖𝐵 ∘ (𝐴∙)(𝑥)

3 Sei 𝒞 = (𝑢1 , . . . , 𝑢𝑘 ) eine geordnete Basis von 𝑈 und 𝐵 = Matℬ𝒞 (𝑔). Dann gilt
𝑘
∑︁
𝑔(𝑤𝑖 ) = 𝑏𝑎𝑖 𝑢𝑎 .
𝑎=1

Damit
𝑚
∑︁ 𝑚
∑︁
𝑔 ∘ 𝑓 (𝑣𝑗 ) = 𝑔( 𝑎𝑖𝑗 𝑤𝑖 ) = 𝑎𝑖𝑗 𝑔(𝑤𝑖 )
𝑖=1 𝑖=1
𝑚
∑︁ ∑︁𝑘 𝑘
∑︁
= 𝑎𝑖𝑗 𝑏𝑎𝑖 𝑢𝑎 = (𝐵 · 𝐴)𝑎𝑗 𝑢𝑎 .
𝑖=1 𝑎=1 𝑎=1

Also
Mat𝒜𝒞 (𝑔 ∘ 𝑓 ) = 𝐵 · 𝐴.
Beispiel.

1 Betrachte 𝑉 = Mat(𝑛, 1; 𝐾) und 𝑊 = Mat(𝑚, 1; 𝐾) mit den Standardbasen

𝒜 = (𝑒1 , . . . , 𝑒𝑛 ) ∈ 𝑉 𝑛
ℬ = (𝑒1 , . . . , 𝑒𝑚 ) ∈ 𝑊 𝑚 .

Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) und

𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾).

84
Dann ist Mat𝒜ℬ (𝐴∙) = 𝐴.
In diesem Fall ist

Mat𝒜ℬ : Hom(Mat(𝑛, 1; 𝐾), Mat(𝑚, 1; 𝐾)) → Mat(𝑚, 𝑛; 𝐾)

die Umkehrabbildung der Abbildung

Mat(𝑚, 𝑛; 𝐾) → Hom(Mat(𝑛, 1; 𝐾), Mat(𝑚, 1; 𝐾)


𝐴 −→ 𝐴∙

2 Sei C der Körper der komplexen Zahlen als Vektorraum ber R.


Sei 𝑧 = (𝑥, 𝑦) = 𝑥 + 𝑖𝑦 ∈ C.
Sei

𝑧∙ : C → C
𝑤 ↦→ 𝑧 · 𝑤

die Multiplikationsabbildung. Diese ist R-linear. Wähle geordnete Basis 𝐴 = (1, 𝑖)


von C. Dann gilt

𝑧·1=𝑧 =𝑥·1+𝑦·𝑖
𝑧 · 𝑖 = (𝑥 + 𝑖𝑦) · 𝑖 = −𝑦 · 1 + 𝑥 · 𝑖
(︂ )︂
𝑥 −𝑦
𝐴 = Mat𝒜𝒜 (𝑧 ∙) =
𝑦 𝑥
Sei 𝑧 ′ = 𝑥′ + 𝑖𝑦 ′ . Dann gilt
(︂ ′
𝑥 −𝑦 ′
)︂
′∙
𝐴 = Mat𝒜𝒜 (𝑧 ) =
𝑦 ′ 𝑥′

(︂ ′ ′
)︂ (︂ )︂ (︂ ′ ′ ′ ′
)︂
′∙ 𝑥 −𝑦 𝑥 −𝑦 𝑥𝑥 − 𝑦 𝑦 −𝑥 𝑦 + 𝑦 𝑥
Mat𝒜𝒜 (𝑧 ) · Mat𝒜𝒜 (𝑧 ∙) = · =
𝑦 ′ 𝑥′ 𝑦 𝑥 𝑦 ′ 𝑥 + 𝑥′ 𝑦 −𝑦 ′ 𝑦 + 𝑥′ 𝑥
= Mat𝒜𝒜 ((𝑧 ′ · 𝑧)∙),

da (𝑧 ′ · 𝑧) = (𝑥′ + 𝑖𝑦 ′ )(𝑥 + 𝑖𝑦) = 𝑥𝑥′ − 𝑦 ′ 𝑦 + 𝑖(𝑦 ′ 𝑥 + 𝑥′ 𝑦).


Klar da 𝑧 ′ · (𝑧 · 𝑤) = (𝑧 ′ · 𝑧) · 𝑤.

85
Korollar 7.18. Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum der Dimension 𝑛, und 𝒜
eine geordnete Basis. Dann gilt

1 Die Matrixdarstellung der Identitätsabbildung

𝑖𝑑𝑉 : 𝑉 → 𝑉
𝑣 ↦→ 𝑣
⎛ 1
1
0⎞
ist Mat𝒜𝒜 (𝑖𝑑𝑉 ) = 1𝑛 die Einheitsmatrix ⎜ 1
⎜ ⎟

⎝ 1 ⎠
1
0 1

2 Die Abbildung

Aut(𝑉 ) −→ GL𝑛 (𝐾)


𝑓 ↦−→ Mat𝒜𝒜 (𝑓 )

ist ein Gruppenhomomorphismus.

Beweis.
Folgt aus Satz 7.17. Sei 𝑓 −1 die Umkehrabbildung von 𝑓 . Dann gilt

Mat𝒜𝒜 (𝑓 ) · Mat𝒜𝒜 (𝑓 −1 ) = Mat𝒜𝒜 (𝑖𝑑𝑉 ) = 1𝑛 .

Beispiel. Betrachte 𝐾 2 = 𝐾 × 𝐾 mit geordneten Basen 𝒜 = (𝑒1 , 𝑒2 ) und ℬ = (𝑒1 , 𝑒2 ).

𝑖𝑑𝑅2 = 𝑅2 −→ 𝑅2 .
Dann gilt (︂ )︂
1 0
Mat𝒜𝒜 (𝑖𝑑𝑅2 )
0 1
aber (︂ )︂
0 1
Mat𝒜ℬ (𝑖𝑑) =
1 0
Die Matrixdarstellung hängt von 𝒜 und ℬ ab!

Proposition 7.19
Seien 𝑉, 𝑊 endlich dimensionale 𝐾-Vektorräume der Dimensionen 𝑛 und 𝑚. Seien 𝒜
und ℬ geordnete Basen. Sei 𝑓 : 𝑉 → 𝑊 eine lineare Abbildung mit Matrixdarstellung

𝐴 = Mat𝒜ℬ (𝑓 ) ∈ Mat(𝑚, 𝑛; 𝐾).

Seien 𝒜′ und ℬ ′ zwei weitere geordnete Basen von 𝑉 beziehungsweise 𝑊 .

86
1 Es gilt
Mat𝒜′ ℬ′ (𝑓 ) = Matℬℬ′ (𝑖𝑑𝑊 ) · 𝐴 · Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ).

2 Die Basiswechselmatrizen Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ) und Matℬ′ ℬ (𝑖𝑑𝑊 ) sind invertierbar mit

Mat𝒜′ 𝒜 (𝑖𝑑𝑣 ) · Mat𝒜𝒜′ (𝑖𝑑𝑉 ) = Mat𝒜𝒜 (𝑖𝑑𝑉 ) = 1𝑛


Matℬℬ′ (𝑖𝑑𝑊 ) · Matℬ′ ℬ (𝑖𝑑𝑊 ) = Matℬ′ ℬ′ (𝑖𝑑𝑊 ) = 1𝑚

Beweis.
Folgt direkt aus Satz 7.17 mit Korollar 7.18.
𝑖𝑑𝑉 𝑓 𝑖𝑑𝑊
𝑉 𝑉 𝑊 𝑊
𝐴′ 𝐴 𝐵 𝐵′

Mat𝒜′ ℬ′ (𝑓 ) = Matℬℬ′ (𝑖𝑑𝑊 ) · Mat𝒜ℬ (𝑓 ) · Mat𝒜′ 𝒜 (𝑖𝑑𝑉 )

Beispiel. Betachte C als R-Vektorraum. Sei 𝒜 = (1, 𝑖) eine geordnete Basis und sei
𝑧 = 𝑥 + 𝑖𝑦. Dann ist (︂ )︂
𝑥 𝑖𝑦
Mat𝒜𝒜 (𝑧 ∙) =
𝑦 𝑥
Sei 𝒜′ = (1 + 𝑖, 1 − 𝑖) eine andere geordnete Basis. Dann berechnen wir Basiswechselma-
trizen.

(︂ 1 1
)︂
1 Mat𝒜𝒜′ (𝑖𝑑𝑉 ) = 2
1
2
2
− 12

1 1
𝑖𝑑C (1) = 1 = (1 + 𝑖) + (1 − 𝑖)
2 2
1 1
𝑖𝑑C (𝑖) = 𝑖 = (1 + 𝑖) − (1 − 𝑖)
2 2

(︂ )︂
1 1
2 Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ) =
1 −1

𝑖𝑑C (1 + 𝑖) = 1 + 𝑖
𝑖𝑑C (1 − 𝑖) = 1 − 𝑖
(︂ 1 1
)︂ (︂ )︂ (︂ )︂
2 2
1 1 1 0
1 =
2
− 12 1 −1 0 1

87
Insbesondere Mat𝒜𝒜′ (𝑖𝑑𝐺 ), Mat𝒜′ 𝒜 (𝑖𝑑𝐺 ) ∈ GL2 (R).
Wenn wir die Multiplikationsabbildung

𝑧∙ : C → C

in der Matrixdarstellung bezüglich 𝐴′ schreiben wollen, so erhalten wir


(︂ 1 1 )︂ (︂ )︂ (︂ )︂
𝑥 −𝑦 1 1
Mat𝒜′ 𝒜′ (𝑧 ∙) = 12 2 1 · · (1)
2
−2 𝑦 𝑥 1 −1
(︂ 1 1 )︂ (︂ )︂
𝑥−𝑦 𝑥+𝑦
= 1 2 2 · (2)
2
− 12 𝑦+𝑥 𝑦−𝑥
(︂ )︂
𝑥 𝑦
= (3)
−𝑦 𝑥
Nachrechnen:

𝑧 · (1 + 𝑖) = (𝑥 + 𝑖𝑦)(1 + 𝑖) = 𝑥(1 + 𝑖) − 𝑦(1 − 𝑖)

𝑧 · (1 − 𝑖) = (𝑥 + 𝑖𝑦)(1 − 𝑖) = 𝑦(1 + 𝑖) + 𝑥(1 − 𝑖)

Satz 7.20
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾). Dann gilt

Rang(𝐴) := Zeilenrang(𝐴) = Spaltenrang(𝐴).

Wir schreiben Rang(𝐴).


Beweis.
Sei 𝒜 = (𝑒1 , . . . , 𝑒𝑛 ) eine Basis von Mat(𝑛, 1; 𝐾) und
ℬ = (𝑒1 , . . . , 𝑒𝑚 ) eine Basis von Mat(𝑚, 1; 𝐾).
Dann ist 𝐴 = Mat𝒜ℬ (𝐴∙). Sei 𝑘 = Spaltenrang(𝐴) = Rang(𝐴∙) = dim(im(𝐴∙)).
Wähle {𝑏1 , . . . , 𝑏𝑛 } eine Basis von im(𝐴∙) und 𝑎1 , . . . , 𝑎𝑘 ∈ Mat(𝑛, 1; 𝐾), sodass

𝐴 · 𝑎𝑖 = 𝑏 𝑖 für alle 1 ≤ 𝑖 ≤ 𝑘.

Dann ist {𝑎1 , . . . , 𝑎𝑘 } ⊂ Mat(𝑛, 1; 𝐾) linear unabhängig.


Ergänze (𝑎1 , . . . , 𝑎𝑘 ) wie in Beweis von Satz 6.37 durch eine Basis (𝑎𝑘+1 , . . . , 𝑎𝑛 ) von
ker(𝐴∙) zu einer geordneten Basis

𝒜′ = (𝑎1 , . . . , 𝑎𝑛 ) von Mat(𝑛, 1; 𝐾).

Ergänze auch (𝑏1 , . . . , 𝑏𝑘 ) zu einer geordneten Basis von Mat(𝑚, 1; 𝐾)

ℬ ′ = (𝑏1 , . . . , 𝑏𝑘 , 𝑏𝑘+1 , . . . , 𝑏𝑚 ) von Mat(𝑛, 1; 𝐾).

Dann gilt {︃
𝑏𝑖 1≤𝑖≤𝑘
𝐴 · 𝑎𝑖 =
0 sonst

88
1𝑘 0
(︃ )︃
Also Mat𝒜′ ℬ′ (𝐴∙) =
0 0
Seien nun

𝑆 = Matℬℬ′ (𝑖𝑑Mat(𝑚,1;𝐾) ) ∈ GL𝑚 (𝐾)


𝑇 = Mat𝒜′ 𝒜 (𝑖𝑑Mat(𝑛,1;𝐾) ) ∈ GL𝑛 (𝐾)

die Basiswechselmatrizen, so gilt

1𝑘 0
(︃ )︃
*
Mat𝒜′ ℬ′ (𝐴) = 𝑆 · 𝐴 · 𝑇 =
0 0

Daher gilt
𝑃 𝑟𝑜𝑝𝑜𝑠𝑖𝑡𝑖𝑜𝑛 7.12
Spaltenrang(𝐴) = Spaltenrang(𝑆 · 𝐴 · 𝑇 )
*
= Zeilenrang(𝑆 · 𝐴 · 𝑇 )
= Spaltenrang((𝑆 · 𝐴 · 𝑇 )𝑇 )
= Spaltenrang(𝑇 𝑇 𝐴𝑇 𝑆 𝑇 )
𝑃 𝑟𝑜𝑝𝑜𝑠𝑖𝑡𝑖𝑜𝑛 7.12
= Spaltenrang(𝐴𝑇 )
= Zeilenrang(𝐴).

Proposition 7.21
Seien 𝑉, 𝑊 endlich dimensionale Vektorräume mit geordneten Basen 𝒜 = (𝑣1 , . . . , 𝑣𝑛 )
und ℬ = (𝑤1 , . . . , 𝑤𝑚 ) und sei 𝑓 : 𝑉 −→ 𝑊 eine lineare Abbildung.
Seien 𝐴* = (𝑣1* , . . . , 𝑣𝑛* ) und 𝐵 * = (𝑤1* , . . . , 𝑤𝑚
*
) die zu 𝒜 und ℬ dualen Basen der
Dualräme 𝑉 und 𝑊 . Dann gilt für die Matrixdarstellung der dualen Abbildung
* *

𝑓 * = 𝑊 * −→ 𝑉 *

dass
Matℬ* 𝒜* (𝑓 * ) = (Mat𝒜ℬ (𝑓 ))𝑇 ,
d.h. Matℬ* 𝒜* (𝑓 ) ist die transponierte Matrix der Matrixdarstellung von 𝑓 bezüglich 𝒜
und ℬ.

Beweis.
Sei 𝐴 = (𝑎𝑖𝑗 )𝑚 𝑛
𝑖 = 1 𝑗 = 1 = Mat𝒜ℬ (𝑓 ).

89
Wir rechnen
𝐷𝑒𝑓 𝑖𝑛𝑖𝑡𝑖𝑜𝑛 6.52
𝑓 * (𝑤𝑗* )(𝑣𝑖 ) = 𝑤𝑗* (𝑓 (𝑣𝑖 ))
𝑚
∑︁
= 𝑤𝑗* ( 𝑎𝑙𝑖 𝑤𝑙 )
𝑙=1
𝑚
𝑤𝑗* linear ∑︁
= 𝑎𝑙𝑖 𝑤𝑗* (𝑤𝑙 )
𝑙=1
𝐷𝑒𝑓 𝑖𝑛𝑖𝑡𝑖𝑜𝑛 6.49
= 𝑎𝑗𝑖
𝑛
∑︁
= 𝑎𝑗𝑘 𝑣𝑘* (𝑣𝑖 )
𝑘=1

Also gilt
𝑛
∑︁
*
𝑓 (𝑤𝑗* ) = 𝑎𝑗𝑘 𝑣𝑘* .
𝑘=1
Also
(Matℬ* 𝒜* (𝑓 * ))𝑘𝑗 = 𝑎𝑗𝑘 ,
also
Matℬ* 𝒜* (𝑓 * ) = 𝐴𝑇 ∈ Mat(𝑚, 𝑛; 𝐾).

7.3 Lineare Gleichungssysteme


Definition 7.22
Ein lineares Gleichungssystem (über dem Körper 𝐾) ist ein System von Gleichungen der
Form
𝑎11 𝑥1 + 𝑎12 𝑥2 + . . . + 𝑎1𝑛 𝑥𝑛 = 𝑏1
𝑎21 𝑥1 + 𝑎22 𝑥2 + . . . + 𝑎2𝑛 𝑥𝑛 = 𝑏2
..
.
𝑎𝑚1 𝑥1 + 𝑎𝑚2 𝑥2 + . . . + 𝑎𝑚𝑛 𝑥𝑛 = 𝑏𝑚

Dabei sind die 𝑎𝑖𝑗 , 𝑏𝑖 ∈ 𝐾 1≤𝑗≤𝑚 1≤𝑖≤𝑛


gegeben. Die 𝑥𝑗 , 1 ≤ 𝑗 ≤ 𝑛 sind Unbestimmte. Ziel ist
es, alle (𝑥1 , . . . , 𝑥𝑛 ) ∈ 𝐾 zu finden, die diese Gleichungen erfüllen.
𝑛

Ein Gleichungssystem lässt sich effizienter als Matrixgleichung schreiben.


𝐴·𝑥=𝑏
wobei (∈𝑖𝑗 )𝑚 𝑛
𝑖 = 1 𝑗 = 1 Mat(𝑚, 𝑛; 𝐾)
⎛ ⎞
𝑏1
𝑏 = ⎝ ... ⎠ ∈ Mat(𝑚, 1; 𝐾)
⎜ ⎟
𝑏𝑚

90
gegeben sind, und ⎛ ⎞
𝑥1
𝑥 = ⎝ ... ⎠ ∈ Mat(𝑛, 1; 𝐾)
⎜ ⎟
𝑥𝑛
gesucht ist.
Falls 𝑏 = 0 nennt man das Gleichungssystem homogen, falls 𝑏 ̸= 0 inhomogen. Die Menge
der Lösungen
Lös(𝐴, 𝐵) = { 𝑥 ∈ Mat(𝑛, 1; 𝐾) | 𝐴 · 𝑥 = 𝑏 }
nennt man den Lösungsraum.
Manchmal ist es sinnvoll das Gleichungssystem 𝐴 · 𝑥 = 𝑏 als erweiterete Matrix zu
beschreiben
(︀ )︀
𝐴 𝑏 ∈ Mat(𝑚, 𝑛 + 1; 𝐾)
⎛ ⎞
𝑎11 . . . 𝑎1𝑛 𝑏1
)︀ ⎜ ⎜ 21 . . . 𝑎2𝑛 𝑏2
𝑎
(︀ ⎟
𝐴 𝑏 =⎜ ..

.

⎝ ⎠
𝑎𝑚1 . . . 𝑎𝑚𝑛 𝑏𝑚

Beispiel.

1 Das lineare Gleichungssystem über R

𝑥1 + 3𝑥2 +5𝑥3 = 0
−𝑥1 + 𝑥2 −𝑥3 = 12

als Matrixgleichung (︂ )︂ (︂ )︂
1 3 5 0
𝐴= ; 𝑏=
−1 1 −1 12
⎛ ⎞
)︂ 𝑥
1 3 5 ⎝ 1⎠
(︂ (︂ )︂
0
𝑥2 =
−1 1 −1 12
𝑥3
Als erweiterte Matrix lässt sich das Gleichungssystem als
(︂ )︂
1 3 5 0 (︀ )︀
= 𝐴 𝑏
−1 1 −1 12

zusammenfassen.

2 𝑥1 + 𝑥2 = 0 über R / über Z/𝑝Z.

91
Satz 7.23
Seien 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾), 𝑏 ∈ Mat(𝑚, 1; 𝐾). Dann gilt für den Lösungsraum des linearen
Gleichungssystems 𝐴 · 𝑥 = 𝑏
1 Lös(𝐴, 0) ⊆ Mat(𝑛, 1; 𝐾) ist ein Untervektorraum der Dimension

dim(Lös(𝐴, 0)) = 𝑛 − Rang(𝐴).

2 Falls 𝑏 ∈
/ Spaltenraum(𝐴), so ist Lös(𝐴, 𝑏) = ∅.
Falls 𝑏 ∈ Spaltenraum(𝐴), so gilt

Lös(𝐴, 𝑏) = 𝑣 + Lös(𝐴, 0)

wobei Lös(𝐴, 𝑏) eine beliebige Lösung des Gleichungssystems ist.

3 Für 𝐵 ∈ GL𝑚 (𝐾), 𝐶 ∈ GL𝑛 (𝐾) gilt

Lös(𝐵 · 𝐴, 𝐵 · 𝑏) = Lös(𝐴, 𝑏)
Lös(𝐴 · 𝐶, 𝑏) = 𝐶 −1 · Lös(𝐴, 𝑏)

Bemerkung. Lös(𝐴, 𝑏) ist ein affiner Unterraum.


Beweis.

1 Lös(𝐴, 0) = ker(𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾)).


Nach Satz 6.37

dim(ker(𝐴∙)) = 𝑛 − dim(im(𝐴∙)) = 𝑛 − Rang(𝐴∙)


= 𝑛 − Spaltenrang(𝐴) = 𝑛 − Rang(𝐴).

2 Es gilt im(𝐴∙) = Spaltenraum von 𝐴, da der Standardbasisvektor 𝑒𝑖 ∈ Mat(𝑛, 1; 𝐾)


durch 𝐴∙ genau auf den 𝑖-ten Spaltenvektor von 𝐴 abgebildet wird.
Also falls 𝑏 ∈/ Spaltenraum(𝐴) = im(𝐴∙), so gibt es kein 𝑥 ∈ Mat(𝑛, 1; 𝐾) mit
𝐴 · 𝑥 = 𝑏, also ist Lös(𝐴, 𝑏) = ∅.
Falls nun 𝑏 ∈ Spaltenraum(𝐴) = im(𝐴∙), so gibt es mindestens ein 𝑣 ∈ Mat(𝑛, 1; 𝐾)
mit 𝐴 · 𝑣 = 𝑏.
Nun gilt für 𝑢 ∈ Lös(𝐴, 0), dass

𝐴∙(𝑣 + 𝑢) = 𝐴 · 𝑣 + 𝐴 · 𝑢 = 𝑏 + 0 = 𝑏.

Also 𝑣 + Lös(𝐴, 0) ⊆ Lös(𝐴, 𝑏).


Andererseits gilt für 𝑤 ∈ Lös(𝐴, 𝑏), dass

𝐴∙(𝑤 − 𝑣) = 𝐴 · 𝑤 − 𝐴 · 𝑣 = 𝑏 − 𝑏 = 0.

Also ist 𝑤 − 𝑣 ∈ Lös(𝐴, 0). Daher folgt Lös(𝐴, 𝑏) = 𝑣 + Lös(𝐴, 0).

92
3 1) Sei 𝐵 ∈ GL𝑚 (𝐾).
𝐵∙
𝐴 · 𝑥 = 𝑏 ==⇒ 𝐵 · 𝐴 · 𝑥 = 𝐵 · 𝑏

also Lös(𝐴, 𝑏) ⊂ Lös(𝐵 · 𝐴, 𝐵 · 𝑏).


𝐵 −1 ∙
𝐵 · 𝐴 · 𝑥 = 𝐵 · 𝑏 ===⇒ 𝐵 −1 · 𝐵 · 𝐴 · 𝑥 = 𝐵 −1 · 𝐵 · 𝑏 → 𝐴 · 𝑥 = 𝑏

also folgt Lös(𝐵 · 𝐴, 𝐵 · 𝑏) ⊂ Lös(𝐴, 𝑏).


2) Sei 𝐶 ∈ 𝐺𝐿𝑛 (𝐾).
Falls 𝑥 ∈ Mat(𝑛, 1; 𝐾) die Gleichung 𝐴 · 𝑥 = 𝑏 erfüllt, erfüllt 𝑥 auch die
Gleichung
𝐴 · 𝐶 · 𝐶 −1 · 𝑥 = 𝑏.
Also erfüllt 𝐶 −1 · 𝑥 die Gleichung

(𝐴 · 𝐶) · 𝐶 −1 · 𝑥 = 𝑏.

Also ist 𝐶 −1 · Lös(𝐴, 𝑏) ⊂ Lös(𝐴 · 𝐶, 𝑏).


Andererseits gilt, falls 𝑥 die Gleichung

(𝐴 · 𝐶) · 𝑥 = 𝑏

erfüllt auch, dass


𝐴 · (𝐶 · 𝑥) = 𝑏.
Also erfüllt 𝐶 · 𝑥 die Gleichung 𝐴 · 𝑥 = 𝑏.
Also folgt
𝐶 ∙ Lös(𝐴 · 𝐶, 𝑏) ⊆ Lös(𝐴, 𝑏),
also
Lös(𝐴 · 𝐶, 𝑏) ⊆ 𝐶 −1 · Lös(𝐴, 𝑏),
also
Lös(𝐴 · 𝐶, 𝑏) = 𝐶 −1 · Lös(𝐴, 𝑏).
Beispiel. Betrachte 𝐴 · 𝑥 = 𝑏 mit
⎛ ⎞
(︂ )︂ (︂ )︂ 𝑥1
1 3 5 0
𝐴= , 𝑏= , 𝑥 = 𝑥2 ⎠ .

−1 1 −1 12
𝑥3

Die Zeilenvektoren von 𝐴 sind linear unabhängig, daher folgt

Rang(𝐴) = Zeilenrang(𝐴) = 2
dim(Lös(𝐴, 0)) = 3 − 2 = 1.

Zu dem gilt
dim(Spaltenraum(𝐴)) = 2 = dim(Mat(2, 1; 𝐾)),

93
also
im(𝐴∙) = Mat(2, 1; 𝐾).
Insbesondere ist 𝑏 ∈ Spaltenraum von 𝐴, also folgt Lös(𝐴, 𝑏) ̸= ∅. Dies lässt sich leicht
nachprüfen:
Durch Addition der 1. Gleichung zur 2. Gleichung ergibt sich

𝑥1 + 3𝑥2 + 5𝑥3 = 0 ⇔ 𝑥1 + 3𝑥2 + 5𝑥3 = 0


−𝑥1 + 𝑥2 + −𝑥3 = 12 4𝑥2 + 4𝑥3 = 12
Die 2. Gleichung kann nach 𝑥2 aufgelöst werden und die erste Gleichung nach 𝑥1 . Wir
erhalten

𝑥 2 = 3 − 𝑥3
𝑥1 = −3𝑥2 − 5𝑥3
= −9 + 3𝑥3 − 5𝑥3
= −9 − 2𝑥3
⎧ ⎛ ⎞ ⎫ ⎛ ⎞ ⎛ ⎞
⎨ −9 − 2𝑥3 ⎬ −9 −2
Lös(𝐴, 𝑏) = ⎝ 3 − 𝑥3 ⎠ 𝑥3 ∈ R = ⎝ 3 + R −1⎠
⎠ ⎝
𝑥3 0 1
⎩ ⎭
⏟ ⏞ ⏟ ⏞
Lös(𝐴,𝑏) Lös(𝐴,0)

Definition 7.24
Eine Matrix (∈𝑖𝑗 )𝑚
𝑖 = 1 𝑗 = 1 Mat(𝑚, 𝑛; 𝐾)𝑎 ist in Zeilenstufenform, falls eine natürliche
𝑛
Zahl 𝑘 mit 1 ≤ 𝑘 ≤ 𝑚 existiert und natürliche Zahlen 1 ≤ 𝑗1 < 𝑗2 < · · · < 𝑗𝑛 ≤ 𝑛, so
dass

1 𝑎𝑖𝑗 = 0 für alle 1 ≤ 𝑖 ≤ 𝑘 ∧ 1 ≤ 𝑗 ≤ 𝑗𝑖 , sowie für alle 𝑖 > 𝑘.

2 𝑎𝑖𝑗𝑖 ̸= 0 für alle 1 ≤ 𝑖 ≤ 𝑘

Also hat 𝐴 die Gestalt


⎛ ⎞
0 ... 0 𝑎1𝑗1 * * * * *
⎜0 ... 0 ... 0 𝑎2𝑗2 * * *⎟
⎜ ⎟
⎜ ⎟
⎜0
⎜ ... 0 ... ... 0 𝑎3𝑗3 * *⎟⎟
⎜0
⎜ ... 0 ... ... ... 0 𝑎4𝑗4 *⎟⎟
⎜ ⎟
⎝0 ... 0 ... ... ... ... ... 0⎠
0 ... 0 ... ... ... ... ... 0

wobei an den Stellen * ein belibiges Element aus 𝐾 stehen kann. Die nochtverschwindenden
Elemente 𝑎𝑖𝑗 , 1 ≤ 𝑖 ≤ 𝑘 nennt man die Pivot-Elemente von 𝐴.

94
Schematische Darstellung von 𝐴
⎛ ⎞
0 ∙





* ⎟



⎜ ∙

⎜ ⎟
⎜ ∙

⎜ ⎟
⎜ ∙

⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
0
⎜ ⎟
⎝ ⎠

Beispiel.
0 1
⎛ ⎞
2 0 7
⎜0 0 0 3 0⎟
1. ⎜ ⎟ ist eine Zeilenstufenform.
⎝0 0 0 0 1⎠
0 0 0 0 0
𝑗1 = 2; 𝑗2 = 4; 𝑗3 = 5; 𝑘 = 3
⎛ ⎞
0 1 2 0 7
⎜0 0 0 3 0⎟
2. ⎜ ⎟ ist NICHT in Zeilenstufenform.
⎝0 0 0 1 1⎠
0 0 0 0 0

Lemma 7.25. Ist 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) in Zeilenstufenform, so ist der Rang(𝐴) gleich der
Anzahl von Null verschiedener Zeilenvektoren.
Die von Null verschiedenen Zeilenvektoren bilden eine Basis des Zeilenraums von 𝐴.
Die transponierten der Zeilenvektoren bilden eine Basis des Spaltenraums von 𝐴𝑇 .
Beweis.
Rang(𝐴) = Zeilenrang(𝐴). zu zeigen also: die von 0 verschiedenen Zeilenvektoren
(𝑎)𝑛 1
𝑖=1 𝑗=1 1 ≤ 𝑖 ≤ 𝑘 ∈ Mat(1, 𝑛; 𝐾).
Seien 𝑙1 , 𝑙2 , . . . 𝑙𝑘 ∈ 𝐾 mit
𝑘
∑︁
𝑧= 𝑙𝑖 𝑧𝑖 = 0.
1=𝑙
Wir nehmen an, es gibt ein 𝑙𝑖 ̸= 0. Sei 𝑟 das kleinste solche 𝑖.
Dann ist der 𝑗𝑟 -te Eintrag von 𝑧 genau
𝑙 𝑎 ̸= 0
⏟ 𝑟⏞ ⏟ 𝑟𝑗⏞𝑟
̸=
̸=

0 0

95
Dies ist ein Widerspruch.
Also sind die von Null verschiedenen Zeilenvektoren von 𝐴 𝑧𝑖 ; 1 ≤ 𝑖 ≤ 𝑘 linear unabhängig.

Proposition 7.26
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) in Zeilenstufenform, 𝑏 ∈ Mat(𝑚, 1; 𝐾). Dann gilt für 𝐴 · 𝑥 = 𝑏
folgendes:

1 Falls 𝑏𝑖 ̸= 0 für ein 𝑖 > 𝑘, so gilt

Lös(𝐴, 𝑏) = ∅

2 Falls 𝑏𝑖 = 0 für alle 𝑖 > 𝑘, so ist 𝑥 ∈ Lös(𝐴, 𝑏) genau dann, wenn


𝑛
1 ∑︁
𝑥𝑗 𝑘 = (𝑏𝑘 − 𝑎𝑘𝑗 𝑥𝑗 )
𝑎𝑘𝑗𝑘 𝑗=𝑗𝑘 +1
𝑛
1 ∑︁
𝑥𝑗𝑘−1 = (𝑏𝑘−1 − 𝑎(𝑘−1)𝑗 𝑥𝑗 )
𝑎(𝑘−1)𝑗𝑘 𝑗=𝑗𝑘−1 +1
..
.
𝑛
1 ∑︁
𝑥𝑗 1 = (𝑏1 − 𝑎1𝑗 𝑥𝑗 )
𝑎1𝑗1 𝑗=𝑗1 +1

Bemerkung: 𝑎1 heißt 𝑎−1 .


Für 𝑗 ∈/ {𝑗1 , . . . , 𝑗𝑘 } sind die 𝑥𝑗 ∈ 𝐾 beliebig. Man nennt diese 𝑥𝑗 auch
freie Variablen.

Beweis.

1 Falls 𝑏𝑖 ̸= 0 für ein 𝑖 > 𝑘, so ist 𝑏 ∈


/ Spaltenraum(𝐴), also gilt nach Satz 7.23, dass
Lös(𝐴, 𝑏) = ∅.

2 Falls 𝑏𝑖 = 0 für alle 𝑖 > 𝑘, so sind die letzten (𝑛 − 𝑘) Gleichungen des Glei-
chungssystems automatisch erfüllt. Die ersten 𝑘 Gleichungen sind äquivalent zu
den Gleichungen in 2 .

Beispiel.
⎛ ⎞
0 1 2 0 7
⎜0 0 0 3 0⎟
Sei 𝐴 = ⎜
⎝0

0 0 0 1⎠
0 0 0 0 0

96
𝐴 ist in Zeilenstufenform mit 𝑘 = 3; 𝑗1 = 2; 𝑗2 = 4, 𝑗3 = 5.
Sei 𝑏 ∈ Mat(4, 1; 𝐾) mit 𝑏4 ̸= 0, so hat die Gleichung 𝐴 · 𝑥 = 𝑏 keine Lösung. Falls 𝑏4 = 0
ist, gibt es eine Lösung. Die Dimension von Lös(𝐴, 0) ist 5 − 3 = 2.
Die freien Variablen sind 𝑥1 , 𝑥3

𝑥𝑗 mit 𝑗 ̸= {𝑗1 , 𝑗2 , 𝑗3 } = {2, 4, 5}.

𝑥2 +2𝑥3 +7𝑥5 = 𝑏1
3𝑥4 = 𝑏2
𝑥 5 = 𝑏3
𝑥 5 = 𝑏3
1
𝑥 4 = 𝑏2
3
𝑥2 + 2𝑥3 + 7𝑥5 = 𝑏1
𝑥2 = 𝑏1 − 2𝑥3 − 7𝑥5
= 𝑏1 − 7𝑏3 − 2𝑥3
⎧ ⎛ ⎞ ⎫

⎪ 𝑥1 ⎪

⎜𝑏1 − 7𝑏3 − 3𝑥3 ⎟

⎪ ⎪
⎨ ⎜ ⎟ ⎪

Lös(𝐴, 𝑏) = ⎜
⎜ 𝑥3 ⎟ ∈ Mat(5, 1; R) 𝑥2 , 𝑥3 ∈ R

1
𝑏2

⎪ ⎝ ⎠ ⎪

3

⎪ ⎪

𝑏3
⎩ ⎭
⎛ ⎞ ⎧⎛ ⎞ ⎛ ⎞⎫
0 ⎪
⎪ 1 0 ⎪ ⎪
⎜𝑏1 − 7𝑏3 ⎟ ⎪

⎨ ⎜ 0 ⎟ ⎜ −2 ⎟⎪ ⎪
⎜ ⎟ ⎜ ⎟⎬
= ⎜ 0 ⎟ + Lineare Hülle ⎜0⎟ , ⎜ 1 ⎟
⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 1 𝑏2 ⎠ ⎪
⎪ ⎝0⎠ ⎝ 0 ⎠⎪ ⎪
3

⎪ ⎪

𝑏3 0 6
⎩ ⎭

Definition 7.27
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) mit Zeilenvektoren 𝑣𝑖 = (𝑎)𝑛 1
𝑖 = 1 𝑗 = 1 ∈ Mat(1, 𝑛; 𝐾).
Eine elementare Zeilentransformationvon 𝐴 ist eine der folgenden Umformungen von 𝐴.

1 𝑧 𝑖 (𝑘) Multiplikation der 𝑖-ten Zeile mit 𝑘 ∈ 𝐾 ∖ {0}

𝑣𝑖 ↦→ 𝑘 · 𝑣𝑖

2 𝑧 𝑖𝑗 (𝑘), 𝑖 ̸= 𝑗 Addition des 𝑘-fachen der 𝑗-ten Zeile zur 𝑖-ten Zeile.

𝑣𝑖 ↦→ 𝑣𝑖 + 𝑘𝑣𝑗

3 𝑧 𝑖𝑗 Vertauschen der 𝑖-ten Zeile mit der 𝑗-ten Zeile

𝑣𝑖 ↦→ 𝑣𝑗 𝑣𝑗 ↦→ 𝑣𝑖

97
Wir schreiben 𝑧 𝑖 (𝑘)(𝐴), 𝑧 𝑖𝑗 (𝑘)(𝐴) und 𝑧 𝑖𝑗 (𝐴).

Beispiel.
⎛ ⎞ ⎛ ⎞
1 2 3 4 2 4 6 8
1
𝑧 (2) : 1
⎝ 1 1 1 → 1
⎠ ⎝ 1 1 1⎠
0 1 0 1 0 1 0 1
⎛ ⎞ ⎛ ⎞
1 2 3 4 1 2 3 4
23
𝑧 (6) : 1
⎝ 1 1 1 → 1
⎠ ⎝ 7 1 7⎠
0 1 0 1 0 1 0 1
⎛ ⎞ ⎛ ⎞
1 2 3 4 0 1 0 1
13 ⎝
𝑧 : 1 1 1 1⎠ → ⎝1 1 1 1⎠
0 1 0 1 1 2 3 4

Bemerkung. Elementare Zeilentransformationen ändern den Zeilenraum von 𝐴 nicht,


insbesondere ändern sie den Zeilenrang(𝐴) = Rang(𝐴) nicht.

Proposition 7.28
Die elementaren Zeilentransformationen von 𝐴 können durch Linksmultiplikation von 𝐴
mit folgenden invertierbaren 𝑚 × 𝑚 Matrizen realisiert werden.

1 𝑧 𝑖 (𝑘)(𝐴) = 𝑇 𝑖 (𝑘) · 𝐴 wobei



⎨𝑘 𝑎 = 𝑖 = 𝑏

𝑖
(𝑇 (𝑘))𝑎𝑏 = 1 𝑎 = 𝑏 ̸= 𝑖
0 sonst


𝑖-te Spalte

0⎟
⎛ ⎞
1

⎜ ... ⎟
⎜ ⎟
⎜ 1 ⎟
⎟ 𝑖-te Zeile
𝑖
⎜ ⎟
𝑇 (𝑘) = ⎜
⎜ 𝑘 ⎟
⎜ 1 ⎟
...
⎜ ⎟
⎜ ⎟
⎝ ⎠
0 1

2 𝑧 𝑖𝑗 (𝑘)(𝐴) = 𝑇 𝑖𝑗 (𝑘) · (𝐴) wobei



⎨𝑘 𝑎 = 𝑖 ∧ 𝑏 = 𝑗

𝑖𝑗
(𝑇 (𝑘))𝑎𝑏 = 1 𝑎 = 𝑏
0 sonst

98
𝑗-te Spalte

0⎟
⎛ ⎞
1
⎜ ...
⎜ ⎟
1
⎜ ⎟
⎜ ⎟
𝑖𝑗

𝑇 (𝑘) = ⎜ ... ⎟

⎜ ⎟
1 𝑘 ⎟ 𝑖-te Zeile
⎜ ⎟

..
.
⎜ ⎟
⎝ ⎠
0 1

3 𝑧 𝑖𝑗 (𝐴) = 𝑇{︃𝑖𝑗 · (𝐴) wobei


1 𝑎=𝑏∈ / {𝑖, 𝑗} ∨ (𝑎 = 𝑖 ∧ 𝑏 = 𝑗) ∨ (𝑎 = 𝑗 ∧ 𝑏 = 𝑖)
(𝑇 𝑖𝑗 )𝑎𝑏 =
0 sonst
𝑖-te Spalte 𝑗-te Spalte
⎛ ⎞
1
..

⎜ . ⎟

1
⎜ ⎟
⎜ ⎟
⎟ 𝑖-te Zeile
0 1

⎜ ⎟
⎜ ⎟
⎜ 1 ⎟
..
⎜ ⎟
⎜ . ⎟
𝑇 𝑖𝑗 = ⎜
⎜ ⎟
..
.

⎜ ⎟
⎜ ⎟

⎜ 1 ⎟

⎜ 1 0 ⎟ 𝑗-te Zeile
⎜ ⎟

⎜ 1 ⎟

..
.
⎜ ⎟
⎝ ⎠
1

4 Die inversen dieser Matrizen sind


−1
𝑇 𝑖 (𝑘) = 𝑇 𝑖 (𝑘 −1 )
−1
𝑇 𝑖𝑗 (𝑘) = 𝑇 𝑖𝑗 (−𝑘)
−1
𝑇 𝑖𝑗 = 𝑇 𝑖𝑗

Beweis.
Dass die Linksmultiplikation der entsprechenden Matrizen 𝑇 𝑖 (𝑘), 𝑇 𝑖𝑗 (𝑘), 𝑇 𝑖𝑗 den elemen-
taren Zeilentransformationen entsprechen, rechnet man leicht nach.
Wir machen dies für 𝑇 𝑖𝑗 (𝑘).
𝑇 𝑖𝑗 (𝑘) = 1𝑚 + 𝑘𝐸 (𝑖𝑗)

99
wobei 𝐸 (𝑖𝑗) die 𝑛 × 𝑛 Matrix ist mit
{︃
1 𝑎=𝑖∧𝑏=𝑗
(𝐸 (𝑖𝑗) )𝑎𝑏 =
0 sonst.

Daher
𝑇 𝑖𝑗 (𝑘) · 𝐴 = (1𝑚 + 𝑘𝐸 (𝑖𝑗) ) · 𝐴 = 𝐴 + 𝑘𝐸 (𝑖𝑗) · (𝐴).
Man berechnet 𝑚
∑︁
(𝑖𝑗)
(𝐸 · 𝐴)𝑟𝑠 = (𝐸 (𝑖𝑗) )𝑟𝑡 𝑎𝑡𝑠 = 𝛿𝑟𝑖 𝑎𝑗𝑠 .
𝑡=1

Also ist 𝐸 (𝑖𝑗) · 𝐴 die Matrix, deren 𝑖-ter Zeilenvektor genau der 𝑗-te Zeilenvektor Von 𝐴
ist und alle anderen Zeilenvektoren sind 0.
Also
𝑇 (𝑖𝑗) (𝑘) · 𝐴 = 𝑧 𝑖𝑗 (𝑘)(𝐴).
Übung: Analog für 𝑇 𝑖 (𝑘), 𝑇 𝑖𝑗 .
Zur Invertierbarkeit betrachtet man

𝑇 𝑖𝑗 (−𝑘)·𝑇 𝑖𝑗 (𝑘) = (1𝑚 −𝑘𝐸 (𝑖𝑗) )(1𝑚 +𝑘𝐸 (𝑖𝑗) ) = (1𝑚 −𝑘𝐸 (𝑖𝑗) )+𝑘𝐸 (𝑖𝑗) )−𝑘 2 𝐸 (𝑖𝑗) 𝐸 (𝑖𝑗) = 1𝑚 ,

da 𝐸 (𝑖𝑗) 𝐸 (𝑖𝑗) = 0. Analog für 𝑇 𝑖 (𝑘), 𝑇 𝑖𝑗 .

Satz 7.29 (Gauß-Algorithmus)


Jede Matrix 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) kann durch eine geeignete Folge von elementaren Zei-
lentransformationen in Zeilenstufenform gebracht werden. Ein Algorithmus hierzu ist
folgender:
Falls 𝐴 = 0, so ist 𝐴 bereits in Zeielnstufenform, wir können also 𝐴 =
̸ 0 annehmen. Setze
𝐵 ∈ Mat(0, 𝑛; 𝐾) die leere 0 × 𝑛 Matrix.
Schritt 1 : Da 𝐴 ̸= 0 ist, gibt es
^𝑗 = min{ 𝑗 | ∃1 ≤ 𝑖 ≤ 𝑚 mit 𝑎𝑖𝑗 ̸= 0 }
^𝑖 = min{ 𝑖 | 𝑎𝑖^𝑗 ̸= 0 }
Falls ^𝑖 = 1, gehe zu Schritt 2. Falls ^𝑖 ̸= 1, vertausche die Zeilen 1 und ^𝑖 von 𝐴, d.h.
^
𝐴 ↦→ 𝑍 1𝑗 (𝐴).

Dies ist dann unsere neue Matrix 𝐴.


𝑎^
Schritt 2 : Für 𝑖 > ^𝑖 addiere das − 𝑎 𝑖𝑗^ -fache der ersten Zeile von 𝐴 zur 𝑖-ten Zeile von 𝐴, d.h.
1𝑗

𝑎𝑖^𝑗
𝐴 ↦→ 𝑍 𝑖1 (− )(𝐴).
𝑎1^𝑗

Das ist unsere neue Matrix 𝐴.

100
Schritt 3 : Sei 𝑣 der erste Zeilenvektor von 𝐴, dieser wird nun nicht mehr verändert. Wir
hängen in an 𝐵 an: (︂ )︂
𝐵
𝐵 ↦→ ∈ Mat(1, 𝑛; 𝐾)
𝑣
und streichen ihn aus 𝐴. Die neue Matrix 𝐴 hat(︂ eine
)︂ Zeile weniger. Ist 𝐴 = 0 oder
𝐵
hat keine Zeilen mehr, so ist die Matrix 𝐴′ = in der Zeilenstufenform.
𝐴
Andernfalls nehmen wir das neue 𝐴 und starten wieder mit Schritt 1.

Beweis.
Was passiert in Schritt 1 und 2?
𝐴 wird so umgeformt (durch elementare Zeilentransformationen), dass ein von 0 verschie-
denes Element an der Stelle 𝑎𝑖^𝑗 steht (Schritt 1) und (nach Schritt 2) alle Matrixeinträge
𝑎𝑖𝑗 = 0 mit 𝑗 < ^𝑗
𝑎𝑖𝑗 = 0 mit 𝑖 > 1.
Dies wird sukzessive für die Matrix wiederholt, die man durch Wegstreichen der ersten
Zeile erhält.
Spätestens nach 𝑚 − 1 Durchgängen ist 𝐴 in der Zeilenstufenform.

Bemerkung. In der Praxis kann auch vom Gauß-Algorihmus abgewichen werden.

Beispiel.


⎛ ⎞
0 1 2 3
⎜5 0 2 1⎟
𝐴 =⎜ ⎝0 1

0 1⎠
0 2 1 1
^𝑗 = 1, ^𝑖 = 2
⎛ ⎞
5 0 2 1

−−−−−→ ⎜ 0 1
⎜ ⎟
𝑍 12 2 3 ⎟ 2. Schritt ist nicht notwendig.


1.𝑆𝑐ℎ𝑟𝑖𝑡𝑡 ⎝ 0 1 0 1 ⎠
0 2 1 1

1. Schritt nicht notwendig:

101
⎛ ⎞
⎛ ⎞ 5 0 2 1
5 0 2 1 ⎜ ⎟
𝑍 32 (−1) ⎜ 0 2 2 3 ⎟ 𝑍 42 (−2) ⎜ 0 2 2 3 ⎟
−−−−→ ⎜ ⎟ −−−−→ ⎜ ⎟
⎝ 0 0 −2 −2 ⎠
⎝ 0 0 -2 −2
⎜ ⎟

0 2 1 1
0 0 −3 −5
5
⎛ ⎞
0 2 1
𝑍 43 (− 32 ) ⎜ 0 1 2 3 ⎟
−−−−−→ ⎜ ⎟
⎝ 0 0 -2 −2 ⎠
0 0 0 -2

Korollar 7.30. Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾), so existiert eine invertierbare Matrix 𝐶 ∈ GL𝑚 (𝐾),
so dass 𝐶 ·𝐴 in Zeilenstufenform ist. Für den Lösungsraum des linearen Gleichungssystems
𝐴 · 𝑥 = 𝑏 gilt dann
Lös(𝐴, 𝑏) = Lös(𝐶 · 𝐴, 𝐶 · 𝐵).
In der Praxis berechnet man nicht
(︀ 𝐶, sondern wendet die elemenatare Zeilentransforma-
tionen auf die erweiterte Matrix 𝐴 𝑏 an.
)︀

Beispiel.
𝑥1 + 0𝑥2 − 𝑥3 + 2𝑥4 = 3
2𝑥1 + 𝑥2 + 0 · 𝑥3 + 𝑥4 = 1
0 · 𝑥1 − 3𝑥2 + 𝑥3 − 𝑥4 = 0

Bringe in Zeilenstufenform
(︀ )︀
𝐴 𝑏
1 1
⎛ ⎞ ⎛ ⎞
21
0 −2 2 3 32
0 −2 2 3
𝑍 (−2) 𝑍 (3)
−−−−→ ⎝ 0 1 2 −3 −5 ⎠ −−−→ ⎝ 0 1 2 −3 −5 ⎠
0 −3 1 −1 0 0 0 7 −10 −15
Also Rang(𝐴) = 3, also 𝑏 ∈ Spaltenraum(𝐴).
→ Lösungsraum ist ein 1-dimensionaler affiner Raum. 𝑥4 ist eine freie Variable, 𝑥1 .𝑥2 , 𝑥3
sind durch 𝑥4 bestimmt.
15 10
𝑥3 = − + 𝑥4
7 7
5 1
𝑥2 = −5 − 2𝑥3 + 3𝑥4 = − + 𝑥4
7 7
6 4
𝑥1 = 3 + 𝑥3 − 2𝑥4 = − 𝑥4
7 7
also ⎛ ⎞ ⎛ ⎞
6 −4
1⎜ −5 ⎜1⎟
Lös(𝐴, 𝑏) = ⎜

⎟ + R⎜ ⎟.
7 ⎝−15⎠ ⎝ 10 ⎠
0 1

102
Lineare Gleichungssysteme kann man auch zum invertieren von Matrizen verwenden: Sei
𝐴 ∈ Mat(𝑚, 𝑛; 𝐾). Dann ist 𝐴 invertierbar genau dann, wenn
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
surjektiv und damit bijektiv ist.
Dann ist Spaltenraum(𝐴) = Mat(𝑛, 1; 𝐾) und 𝐴 · 𝑥 = 𝑏 hat eine Lösung für jedes
𝑏 ∈ Mat(𝑛, 1; 𝐾). Zudem ist ker(𝐴∙) = Lös(𝐴, 0) = {0}, also ist die Lösung eindeutig.
Betrachte nun 𝑠𝑖 ∈ Mat(𝑛, 1; 𝐾) die eindeutige Lösung, so dass 𝐴 · 𝑠𝑖 = 𝑒𝑖 , wobei 𝑒𝑖 den
𝑖-ten Basisvektor der Standardbasis von Mat(𝑛, 1; 𝐾) darstellt.
Betrachte die Matrix 𝐵, die aus den Spaltenvektoren 𝑠1 , . . . , 𝑠𝑛 gebildet wird. Dann gilt
𝐴 · 𝐵 = (𝑒1 . . . 𝑒𝑛 ) = 1𝑛 .
Also ist 𝐵 = 𝐴−1 .
Die
(︀ 𝑠1 , . . )︀. 1𝑛 kann man alle gleichzeitig betrachten, wenn man die erweiterte Matrix
𝐴 1𝑛 betrachtet und in Zeilenstufenform bringt.
Da 𝐴 invertierbar ist, lässt sich 𝐴 durch elementare Zeilentransformationen sogar in eine
Einheitsmatrix überfüren. Danns steht auf der rechten Seite die Inverse
𝐴 1𝑚 −−−−−−−−−−−−−→ 1 𝐵
(︀ )︀ elementare (︀ )︀
Zeilentransformationen

Beispiel. ⎛ ⎞
1 2 3
𝐴 = ⎝−1 2 0⎠
0 1 1
Invertiere 𝐴:
1 2 3 1 1
⎛ ⎞ ⎛ ⎞
0 0 2 3 1 0 0
𝑍 21 (1)
𝐴 1𝑚 4
(︀ )︀
= ⎝ −1 2 0 0 1 0 ⎠ ====⇒ ⎝ 0 3 1 1 0 ⎠
0 1 1 0 0 1 0 1 1 0 0 1
⎛ ⎞ ⎛ ⎞
1 2 3 1 0 0 1 2 3 1 0 0
𝑍 32 (− 41 ) 𝑍 3 (4)
===== ⇒⎝ 0 4 3 1 1 0 ⎠ ===⇒ ⎝ 0 4 3 1 1 0 ⎠
0 0 14 − 14 − 41 1 0 0 1 −1 1 4
⎛ ⎞ ⎛ ⎞
1 2 3 1 0 0 1 2 3 1 0 0
𝑍 23 (−3) 𝑍 2 ( 14 )
=====⇒ ⎝ 0 4 0 4 4 −12 ⎠ ==== ⇒ ⎝ 0 1 0 1 1 −3 ⎠
0 0 1 −1 −1 4 0 0 1 −1 −1 4
⎛ ⎞ ⎛ ⎞
1 2 0 4 3 −12 1 0 0 2 1 −6
𝑍 13 (−3) 𝑍 12 (−2)
=====⇒ ⎝ 0 1 0 1 1 −3 ⎠ =====⇒ 0 ⎝ 1 0 1 1 −3 ⎠
0 0 1 −1 −1 4 0 0 1 −1 −1 4
⎛ ⎞
2 1 −6
Also 𝐴−1 = ⎝ 1 1 −3⎠
−1 −1 4
Prüfe:
𝐴 · 𝐴−1 = 1𝑛

103
Bemerkung. Umformungen in Zeilenstufenform mittels elementarer Zeilentransformatio-
nen sind nützlich zur Bestimmung von
1 Rang(𝐴)

2 Basis des Zeilenraums von 𝐴

3 Basis des Spaltenraums von 𝐴𝑇

4 Lösungen von linearen Gleichungssystemen 𝐴·𝑥=𝑏

5 der inversen Matrix 𝐴−1 (falls 𝐴 invertierbar ist).

8 Determinanten
8.1 Alternierende Multilinearform
Definition 8.1
Seien 𝑉, 𝑊 𝐾-Vektorräume, 𝑘 ∈ 𝑁 . Eine Abbildung 𝛿𝑉 𝑘 → 𝑊 heißt multilinear (oder
𝑘-multilinear), falls für alle 1 ≤ 𝑖 ≤ 𝑘 und alle 𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖+1 , . . . , 𝑣𝑘 ∈ 𝑉 gilt, dass die
Abbildung

𝛿(𝑣1 , . . . , 𝑣𝑖−1 , ∙, 𝑣𝑖+1 , . . . , 𝑣𝑘 ) : 𝑉 → 𝑊


𝑣 ↦→ 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣, 𝑣𝑖+1 , . . . , 𝑣𝑘 )

linear sind. Ist 𝑊 = 𝐾, so nennt man 𝛿 auch eine Multilinearform.


Beispiel.

1 𝑘=1 𝑘-multilinear = linear

𝛿:𝑉 →𝑊

2 Falls 𝑉 = 𝐾, dann gilt für jede 𝑘-multilineare Abbildung

𝛿 : 𝐾𝑘 → 𝑊

𝛿(𝑙1 , . . . 𝑙𝑘 ) = 𝑙1 𝛿(1, 𝑙2 , . . . 𝑙𝑘 ) = 𝑙1 · 𝑙2 𝛿(1, 1, 𝑙3 , . . . 𝑙𝑘 ) = . . . 𝑙1 · 𝑙2 · · · · · 𝑙𝑘 · 𝛿(1, 1, . . . , 1)


für alle 𝑙𝑖 ∈ 𝐾. D.h. 𝛿 ist eindeutig bestimmt durch 𝛿(1, 1, . . . , 1).

3 Falls 𝑉 = 𝐾 2 , so gilt für jede 2-multilineare Abbildung

𝛿 :𝑉2 →𝑊

𝛿((𝑥1 , 𝑥2 ), (𝑦1 , 𝑦2 )) = 𝑥1 · 𝑦1 · 𝛿((1, 0), (1, 0)) + 𝑥1 · 𝑦2 · 𝛿((1, 0), (0, 1))
+ 𝑥2 · 𝑦1 · 𝛿((0, 1), (1, 0)) + 𝑥2 · 𝑦2 · 𝛿((0, 1), (0, 1))

104
4 Achtung: 𝛿(𝑣1 , 𝑣2 ) + 𝛿(𝑣1 , 𝑣2′ ) = 𝛿(𝑣1 , 𝑣2 + 𝑣2′ ) , aber NICHT

𝛿(𝑣1 , 𝑣2 ) + 𝛿(𝑣1′ , 𝑣2′ ) = 𝛿(𝑣1 + 𝑣1′ , 𝑣2 + 𝑣2′ )

Fakt 8.2
Die Menge der 𝑘-multilinearen Abbildungen 𝑉 𝑘 → 𝑊 trägt die Struktur eines 𝐾-
Vektorraumes.

Proposition 8.3
Seien 𝑣, 𝑊 𝐾-Vektorräume und 𝛿 : 𝑉 𝑘 → 𝑊 eine multilineare Abbildung. Dann sind die
folgenden Aussagen äquivalent:

1 für alle 𝑣1 , . . . , 𝑣𝑘 ∈ 𝑉 gilt 𝛿(𝑣1 , . . . , 𝑣𝑘 ) = 0, falls es ein 1 ≤ 𝑖 ≤ 𝑘 gibt mit 𝑣𝑖 = 𝑣𝑖+1 .

2 für alle 𝑣1 , . . . , 𝑣𝑘 ∈ 𝑉 gilt 𝛿(𝑣1 , . . . , 𝑣𝑘 ) = 0, falls es 1 ≤ 𝑖 ̸= 𝑗 ≤ 𝑘 gibt mit 𝑣𝑖 = 𝑣𝑗 .

Beweis.

2 ⇒ 1 : klar

1 ⇒ 2 : Nehme an 1 gilt, dann gilt

multilinear 1
0 = 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 + 𝑣𝑖+1 , 𝑣𝑖+1 + 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )
multilinear 1
= 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 , 𝑣𝑖+1 + 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )
+ 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 , 𝑣𝑖+1 + 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )
multilinear 1
= 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 , 𝑣𝑖+1 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )
+ 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 , 𝑣𝑖+1 , 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )

Also gilt: Vertauschen benachbarter Argumente (𝑣𝑖 ↔ 𝑣𝑖+1 ) ändert das Vorzeichen von 𝛿,
also
𝛿(𝑣1 , . . . , 𝑣𝑖 , 𝑣𝑖+1 , 𝑣𝑖+2 , . . . , 𝑣𝑘 ) = −𝛿(𝑣1 , . . . , 𝑣𝑖+1 , 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 ).
Daher folgt für 𝑣1 , . . . , 𝑣𝑘 ∈ 𝑉 mit 𝑣𝑖 = 𝑣𝑗 für 𝑖 < 𝑗

1
𝛿(𝑣1 , . . . , 𝑣𝑘 ) = (−1)𝑗−𝑖−1 · 𝛿(𝑣1 , . . . , 𝑣𝑖 , 𝑣𝑗 , 𝑣𝑖+1 , . . . , 𝑣𝑘 = 0.

Also folgt, dass 2 gilt.

Definition 8.4
Eine multilineare Abbildung 𝛿 : 𝑉 * → 𝑊 , die eine der äquivalenten Bedingungen in
Proposition 8.3 erfüllt, heißt alternierend .

105
Korollar 8.5. Seien 𝑉, 𝑊 𝐾-Vektorräume. Die Menge

Alt𝑘 (𝑉, 𝑊 ) := { 𝛿 : 𝑉 𝑘 → 𝑊 | 𝛿 ist eine multilineare Abbildung }

der alternierenden multilinearen Abbildungen ist ein 𝐾-Vektorraum.


Exkurs zur symmetrischen Gruppe 𝑆𝑛
Zur Erinnerung: Sei 𝑋 = {1, . . . , 𝑛}

𝑆𝑛 = Bij(𝑋, 𝑋).

Elemente aus 𝑆𝑛 heißen Permutationen.


Definition 8.6
Eine 𝑇 𝑟𝑎𝑛𝑠𝑝𝑜𝑠𝑖𝑡𝑖𝑜𝑛 ist eine Permutation, die zwei Elemente 𝑖, 𝑗 ∈ 𝑋, 𝑖 ̸= 𝑗 vertauscht
und alle anderen Elemente invariant lässt.

⎨𝑥 𝑥 ∈
⎪ / {𝑖, 𝑗}
𝑆𝑛 ∋ (𝑖𝑗) := 𝑥 ↦→ 𝑗 𝑥 = 𝑖

𝑖 𝑥=𝑗

Bemerkung: Es gilt (𝑖𝑗) = (𝑗𝑖) und (𝑖𝑗)2 = (𝑖𝑗) ∘ (𝑗𝑖) = 𝑒.


Proposition 8.7
Jede Permutation 𝜋 ∈ 𝑆𝑛 kann als Produkt von höchstens 𝑛 − 1 Transpositionen
geschrieben werden.
Beweis.
durch Induktion über 𝑛.
IA: 𝑛 = 1
IS: Sei 𝜋 ∈ 𝑆𝑛 Falls 𝜋(𝑛) = 𝑛, so liegt 𝜋 ∈ 𝑆𝑛−1 ⊂ 𝑆𝑛 und nach Induktionsvoraus-
setzung lässt sich 𝜋 als Produkt von höchstens 𝑛 − 2 < 𝑛 − 1 Transpositionen
schreiben. Falls 𝜋(𝑛) = 𝑝 ̸= 𝑛, so bildet (𝑛𝑝) ∘ 𝜋 ∈ 𝑆𝑛 𝑛 auf 𝑛 ab, also lässt sich
⏟ ⏞
(𝑛𝑝) ∘ 𝜋 als Produkt höchstens 𝑛 − 2 Transpositionen schreiben. Also lässt sich
𝜋 = (𝑛𝑝) ∘ (𝑛𝑝) ∘ 𝜋 als Produkt von höchstens 𝑛 − 1 Transpositionen schreiben.
⏟ ⏞ ⏟ ⏞
<𝑛−2

Definition 8.8
Für eine Permutation 𝜋 ∈ 𝑆𝑛 definieren wir die Menge der Fehlstände von 𝜋:

𝐹𝜋 { (𝑖, 𝑗) | 𝑖 < 𝑗 und 𝜋(𝑖) > 𝜋(𝑗) }.

Wir nennen 𝑙(𝜋) := |𝐹𝜋 | die Länge von 𝜋, und sign(𝜋) = (−1)𝑙(𝜋) das Signum von 𝜋. Man
nennt 𝜋 gerade, falls sign(𝜋) = 1, und 𝜋 ungerade, falls sign(𝜋) = −1.
Satz 8.9
Es gilt

106
1 sign(𝑒) = 1
∏︁ 𝜎(𝑖) − 𝜎(𝑗) ∏︁ 𝜎(𝑎) − 𝜎(𝑏)
2 sign(𝜎) = =
1≤𝑖<𝑗≤𝑛
𝑖−𝑗 𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏

3 sign(𝜋 ∘ 𝜎) = sign(𝜋) · sign(𝜎) ∀𝜋, 𝜎 ∈ 𝑆𝑛

4 Sei 𝜏 eine Transposition, dann sign 𝜏 = −1.

Beweis.

1 klar

2 Die beiden Produkte sind gleich, da

𝜎(𝑖) − 𝜎(𝑗) 𝜎(𝑗) − 𝜎(𝑖)


= .
𝑖−𝑗 𝑗−𝑖
∏︁ 𝜎(𝑎) − 𝜎(𝑏)
Es reicht zu zeigen, dass sign(𝜎) = . Da {𝑎, 𝑏} alle 2-
𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏
elementigen Teilmengen durchläuft, gilt dies auch für {𝜎(𝑎), 𝜎(𝑏)}, also
∏︁
𝜎(𝑎) − 𝜎(𝑏)
{𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏 +1 oder
ist
−1.
∏︁
𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏

Wir wollen zeigen, dass Vorzeichen genau

(−1)|𝐹𝜋 | = sign 𝜎.

Dies sieht man aus der ersten Formel


∏︁𝜎(𝑖) − 𝜎(𝑗)
.
1≤𝑖<𝑗≤𝑛
𝑖 − 𝑗

107
3 Wir beutzen 2 .
∏︁ (𝜋 ∘ 𝜎)(𝑎) − (𝜋 ∘ 𝜎)(𝑏)
sign(𝜋 ∘ 𝜎) =
𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏
∏︁ (𝜋 ∘ 𝜎)(𝑎) − (𝜋 ∘ 𝜎)(𝑏) 𝜎(𝑎) − 𝜎(𝑏)
= ·
𝜎(𝑎) − 𝜎(𝑏) 𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏
∏︁ (𝜋 ∘ 𝜎)(𝑎) − (𝜋 ∘ 𝜎)(𝑏) ∏︁ 𝜎(𝑎) − 𝜎(𝑏)
=
𝜎(𝑎) − 𝜎(𝑏) 𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛} {𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏 𝑎̸=𝑏

= sign(𝜋) sign(𝜎)

[Wir benutzen wieder, dass wenn {𝑎, 𝑏} alle 2-elementigen Teilmengen durchläuft,
so auch {𝜎(𝑎), 𝜎(𝑏)}.]

4 Sei 𝜏 = (𝑖𝑗) eine Transposition. OBdA kann angenommen werden, dass 𝑖 < 𝑗. Dann
ist die Menge der Fehlstände gegeben durch die disjunkte Vereinigung

⋃︁ ∙
⋃︁
𝐹𝜏 = { (𝑖, 𝑙) | 𝑖 < 𝑙 < 𝑗 } { (𝑙, 𝑗) | 𝑖 < 𝑙 < 𝑗 } {(𝑖, 𝑗)}

|𝐹𝜏 | = 2𝑘 + 1 für 𝑘 = |{ 𝑙 | 𝑖 < 𝑙 < 𝑗}| also gilt,

sign(𝜏 ) = (−1)|𝐹𝜏 | = (−1)2𝑘+1 = (−1)1 = −1.

Korollar 8.10. Die Abbildung


sign : 𝑆𝑛 → {±1}
ist ein Gruppenhomomorphismus.

𝐴𝑛 := ker(sign) = { 𝜋 ∈ 𝑆𝑛 | sign(𝜋) = 1 }

ist eine Untergruppe von 𝑆𝑛 . Sie heißt die alternierende Gruppe.


Korollar 8.11 (zu Proposition 8.3). Sei 𝛿 : 𝑉 𝑘 → 𝑊 eine alternierende multilineare
Abbildung. Dann gilt ∀𝑣1 , . . . , 𝑣𝑘 ∈ 𝑉 und 𝜎 ∈ 𝑆𝑘

𝛿(𝑣𝜎(1) , . . . , 𝑣𝜎(𝑘) ) = sign(𝜎)𝛿(𝑣1 , . . . , 𝑣𝑘 )

Bemerkung. Falls 𝐾 ein Körper mit char(𝐾) ̸= 2, dann ist äquivalent dazu, dass 𝛿
alternierend ist. Falls char(𝐾) = 2 ist das nicht der Fall, da aus 𝑣 = −𝑣 nicht folgt, dass
𝑣 = 0 sein muss.
Satz 8.12
Sei 𝑉 ein 𝐾-Vektorraum der Dimension 𝑛. Dann gilt dim(Alt𝑛 (𝑉, 𝐾)) = 1. D.h. alle von
Null verschiedenen Elemente in Alt𝑛 (𝑉, 𝐾) sind proportional zueinander, d.h. sei 𝛿, 𝛿 ′ ∈
Alt𝑛 (𝑉, 𝐾), 𝛿 ̸= 0, 𝛿 ′ ̸= 0, dann ∃𝑘 ∈ 𝐾, 𝛿 ′ = 𝑘 · 𝛿. Man nennt sie Determinantenformen.

108
Beweis.
Sei 𝐵 = (𝑏1 , . . . 𝑏𝑛 ) eine geordnete Basis von 𝑉 . Seien 𝑣1 , . . . , 𝑣𝑛 beliebig. Sei
𝑛
∑︁
𝑣𝑖 = 𝑎𝑗𝑖 𝑏𝑗 mit 𝑎𝑖𝑗 ∈ 𝐾, 1 ≤ 𝑖, 𝑗 ≤ 𝑛.
𝑗=1

Dann gilt
𝑛
∑︁ 𝑛
∑︁
𝛿(𝑣1 , . . . 𝑣𝑛 ) = ··· 𝑎𝑗1 1 . . . 𝑎𝑗𝑛 𝑛 𝛿(𝑏𝑗1 . . . 𝑏𝑗𝑛 )
𝑗1 =1 𝑗𝑛 =1

Da 𝛿 alternierend ist, bleiben nur Terme übrig, für die alle 𝑗𝑟 1 ≤ 𝑟 ≤ 𝑛 paarweise
verschieden sind.
Also gibt es eine Permutation 𝜎 ∈ 𝑆𝑛 mit 𝑝𝑟 = 𝜎(𝑟) für alle 1 ≤ 𝑟 ≤ 𝑛. Für jede solche
Permutation taucht genau ein Summand auf, also
𝑛
𝐾𝑜𝑟𝑜𝑙𝑙𝑎𝑟 8.11
∑︁
𝛿(𝑣1 , . . . 𝑣𝑛 ) = 𝑎𝜎(1)1 . . . 𝑎𝜎(𝑛)𝑛 𝛿(𝑏𝜎(1) , . . . , 𝑏𝜎(𝑛) )
𝜎∈𝑆𝑛
𝑛
𝐾𝑜𝑟𝑜𝑙𝑙𝑎𝑟 8.11
∑︁
= sign( 𝜎)𝑎𝜎(1)1 . . . 𝑎𝜎(𝑛)𝑛 𝛿(𝑏1 , . . . , 𝑏𝑛 )
𝜎∈𝑆𝑛

nennt man auch die Entwicklungsformel von Leibniz. Falls 𝛿(𝑏1 , . . . , 𝑏𝑛 ) = 0, so ist
𝛿 = 0. Falls 𝛿(𝑏1 , . . . , 𝑏𝑛 ) ̸= 0, so kann jedes 𝛿 ′ ∈ Alt𝑛 (𝑉, 𝐾) durch skalare Multiplikation
mit einem Element aus 𝐾 von 𝛿 erhalten werden.
𝛿 ′ (𝑏1 , . . . , 𝑏𝑛 )
𝛿′ = 𝛿.
𝛿(𝑏1 , . . . , 𝑏𝑛 )

Noch zu zeigen: Es gibt mindestens ein 𝛿 ∈ Alt𝑘 (𝑉, 𝐾) mit 𝛿 ̸= 0, so dass ein 𝛿 existiert,
z.B. setzen wir 𝛿(𝑏1 , . . . 𝑏𝑛 ) = 1.
(︂ )︂
𝑘 𝑛
Bemerkung. dim(Alt (𝑉, 𝐾)) =
𝑘
Proposition 8.13
Sei 𝑉 ein 𝐾-Vektorraum und dim(𝑉 ) = 𝑛. Sei 𝛿 ∈ Alt𝑘 (𝑉, 𝐾) eine Determinantenform
auf 𝑉 . Dann gilt für alle 𝑣1 , . . . , 𝑣𝑛 ∈ 𝑉

𝛿(𝑣1 , . . . , 𝑣𝑛 ) = 0 ⇔ {𝑣1 , . . . , 𝑣𝑛 } ⊂ 𝑉 ist linear abhängig.

Beweis.

109
„⇐“ Sei {𝑣1 , . . . , 𝑣𝑛 } linear abhängig. Dann gibt es 𝑙1 , . . . , 𝑙𝑛 ∈ 𝐾 so dass
𝑛−1
∑︁
𝑣𝑛 = 𝑙𝑖 𝑣𝑖 .
𝑖=1

Aus der Multilinearität und da 𝛿 alternierend ist, folgt


𝑛−1
∑︁
𝛿(𝑣1 , . . . , 𝑣𝑛 ) = 𝑙𝑖 𝛿(𝑣1 , . . . , 𝑣𝑛−1 , 𝑣𝑖 ) = 0.
𝑙=1

„⇒“ Sei {𝑣1 , . . . , 𝑣𝑛 } linear unabhängig, dann ist {𝑣1 , . . . , 𝑣𝑛 } eine Basis von 𝑉 . Wäre
dann 𝛿(𝑣1 , . . . , 𝑣𝑛 ) = 0, so wäre zwangsläufig 𝛿 = 0. Dies ist aber ein Widerspruch
dazu, dass 𝛿 in Determinantenform ist. Also muss 𝛿(𝑣1 , . . . , 𝑣𝑛 ) ̸= 0 sein.

Satz 8.14
Sei 𝑉 ein 𝐾-Vektorraum und dim(𝑉 ) = 𝑛 und sei 𝑓 : 𝑉 → 𝑉 ein Endomorphismus.
Dann existiert ein 𝑑𝑓 ∈ 𝐾, so dass für alle Determinantenformen 𝛿 auf 𝑉 gilt: für alle
𝑣1 , . . . , 𝑣𝑛 ∈ 𝑉 gilt

𝑓 * 𝛿(𝑣1 , . . . , 𝑣𝑛 ) := 𝛿(𝑓 (𝑣1 ), . . . , 𝑓 (𝑣𝑛 )) = 𝑑𝑓 𝛿(𝑣1 , . . . , 𝑣𝑛 ).

Das Element 𝑑𝑓 ∈ 𝐾 hängt nur von dem Endomorphismus 𝑓 ab und wird die
Determinante von 𝑓 genannt. Man schreibt

𝑑𝑓 =: det(𝑓 ) ∈ 𝐾

Beweis.
Man sieht leicht, dass 𝑓 * 𝛿 ∈ Alt𝑛 (𝑉, 𝐾) ist und dass die Abbildung

𝑓 * : Alt𝑛 (𝑉, 𝐾) → Alt𝑛 (𝑉, 𝐾)


𝛿 ↦→ 𝑓 * 𝛿

linear ist.
Falls 𝛿 ̸= 0, so ist 𝑓 * 𝛿 ein 𝐾-Vielfaches von 𝛿, also

𝑓 * 𝛿 = 𝑑𝛿 mit 𝑑 ∈ 𝐾 (Satz 8.12)

Sei 𝛿 ′ ̸= 0 ∈ Alt𝑛 (𝑉, 𝐾), so gilt 𝛿 ′ = 𝑙 · 𝛿 mit 0 ̸= 𝑙 ∈ 𝐾.

𝑓 * 𝛿 ′ = 𝑓 * (𝑙 · 𝛿) = 𝑙 · 𝑓 * 𝛿 = 𝑙 · (𝑑 · 𝛿) = (𝑙 · 𝑑) · 𝛿 = 𝑑 · (𝑙 · 𝛿) = 𝑑 · 𝛿 ′ .

Proposition 8.15
Sei 𝑉 ein 𝐾-Vektorraum mit dim(𝑉 ) = 𝑛. Es gilt für det : Hom(𝑉, 𝑉 ) → 𝐾

1 det(𝑓 ∘ 𝑔) = det(𝑓 ) · det(𝑔) ∀𝑓, 𝑔 ∈ Hom(𝑉, 𝑉 )

110
2 det(𝑙 · 𝑓 ) = 𝑙𝑛 · det(𝑓 ) ∀𝑙 ∈ 𝐾, 𝑓 ∈ Hom(𝑉, 𝑉 )

3 det(0) = 0, det(𝑖𝑑𝑉 ) = 1.

4 Ein Endomorphismus 𝑓 : 𝑉 → 𝑉 ist genau dann ein Isomorphismus, wenn

det(𝑓 ) ̸= 0.

Dann gilt det(𝑓 −1 ) = det(𝑓 )−1 .

Beweis.
Sei 𝛿 eine Determinantenform auf 𝑉 .

1 Es gilt:

(𝑓 ∘ 𝑔)* 𝛿 = 𝑔 * (𝑓 * 𝛿) = 𝑔 * (det(𝑓 )𝛿) = det(𝑓 )(𝑔 * 𝛿) = det(𝑓 ) · det(𝑔) · 𝛿.

Also folgt det(𝑓 ∘ 𝑔) = det(𝑓 ) · det(𝑔).

2 und 3 Zeige: det(𝑙 · 𝑖𝑑𝑣 ) = 𝑙𝑛 .

(𝑙 · 𝑖𝑑𝑉 )* (𝛿)(𝑣1 , . . . , 𝑣𝑛 ) = 𝛿(𝑙𝑣1 , . . . , 𝑙𝑣𝑛 ) = 𝑙𝑛 𝛿(𝑣1 , . . . , 𝑣𝑛 ).

4 „⇐“ Sei 𝑓 ein Isomorphismus. Setze 𝑔 = 𝑓 −1 in 1 ein.

1 = det(𝑖𝑑𝑉 ) = det(𝑓 ∘ 𝑓 −1 ) = det(𝑓 ) · det(𝑓 −1 ),

also ist det(𝑓 ) ̸= 0 und det(𝑓 −1 ) = det(𝑓 )−1 .


„⇒“ Sei 𝑓 kein Isomorphismus, dann bildet 𝑓 eine Basis {𝑏1 , . . . , 𝑏𝑛 } auf eine linear
abhängie Menge {𝑓 (𝑏1 ), . . . , 𝑓 (𝑏𝑛 )} ab.
Also ist 𝑓 * 𝛿(𝑏1 , . . . , 𝑏𝑛 ) = 𝛿(𝑓 (𝑏1 ), . . . , 𝑓 (𝑏𝑛 )) = 0. Also ist det(𝑓 ) = 0.

Proposition 8.16
Sei 𝑉 ein 𝐾-Vektorraum mit dim(𝑉 ) = 𝑛. Sei 𝐵 = (𝑏1 , . . . , 𝑏𝑛 ) eine geordnete Basis von
𝑉 und 𝑓 : 𝑉 → 𝑉 ein Endomorphismus mit Matrixdarstellung

𝐴 = (𝑎𝑖𝑗 )𝑛 𝑛
𝑖 = 1 𝑗 = 1 = Matℬℬ ∈ Mat(𝑛, 𝑛; 𝐾).

Also folgt 𝑓 (𝑏𝑗 ) = 𝑚𝑖=1 𝑎𝑖𝑗 𝑏𝑗 . Dann gilt


∑︀

∑︁
det(𝑓 ) = sign 𝜎𝑎𝜎1 1 . . . 𝑎𝜎𝑛 𝑛 .
𝜎∈𝑆𝑛

111
Beweis.

det(𝑓 ) · 𝛿(𝑏1 , . . . , 𝑏𝑛 ) = 𝑓 * 𝛿(𝑏1 , . . . , 𝑏𝑛 )


= 𝛿(𝑓 (𝑏1 ), . . . , 𝑓 (𝑏𝑛 ))
∑︁𝑛 𝑛
∑︁
= 𝛿( 𝑎𝑖1 𝑏1 · · · 𝑎𝑖𝑛 𝑏𝑛 )
𝑖=1 𝑖=1
∑︁
= sign (𝜎)𝑎𝜎1 1 . . . 𝑎𝜎𝑛 𝑛 𝛿(𝑏1 , . . . , 𝑏𝑛 )
𝜎∈𝑆𝑛

wobei im letzten Schritt die Leibnizsche Entwicklungsformel (Satz 8.12) verwendet wurde.
Also gilt ∑︁
det(𝑓 ) = sign(𝜎) 𝑎𝜎1 1 . . . 𝑎𝜎𝑛 𝑛 .
𝜎∈𝑆𝑛

8.2 Determinanten von Matrizen


Definition 8.17
Sei 𝐾 ein Körper und 𝑛 ∈ 𝑁 . Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Die Determinante von 𝐴 ist definiert
als die Determinante des Endomorphismus

𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
det(𝐴) := det(𝐴∙)

Korollar 8.18 (Leibniz-Formel). Da 𝐴 die Matrixdarstellung von 𝐴∙ bezüglich der Stan-


dardbasis ist, gilt nach Proposition 8.16
∑︁
det(𝐴) = sign(𝜎) 𝑎𝜎(1)1 . . . 𝑎𝜎(𝑛)𝑛
𝜎∈𝑆𝑛

Bemerkung.

1 Die Formel kann man verwenden, um die Determinante für Matrizen mit Einträgen
in einem Ring definieren
z.B. 𝐴 ∈ Mat(𝑛, 𝑛; Z).

2 Die Formel ist nicht effizient zur Berechnung von Determinanten.

Beispiel.

1 𝑛 = 1 𝐴 = (𝑎11 ) det(𝐴) = 𝑎11


(︂ )︂
𝑎11 𝑎12
2 𝑛=2 𝐴= det(𝐴) = 𝑎11 𝑎22 − 𝑎21 𝑎12
𝑎21 𝑎22

112
3 Sei 𝐴 ∈ (𝑎𝑖𝑗 )𝑛
𝑖 = 1 𝑗 = 1 eine obere Dreiecksmatrix, d.h.
𝑛 𝑎𝑖𝑗 = 0 für alle 𝑖 > 𝑗
⎛ ⎞
*




*
*
* ⎟




⎜ * ⎟

*
⎜ ⎟
⎜ ⎟
*
⎜ ⎟
⎜ ⎟
*
⎜ ⎟
⎜ ⎟
*
⎜ ⎟
⎜ ⎟
0 *
⎜ ⎟
⎝ ⎠
*

Es tauchen in det(𝐴) nur Summanden auf, für die 𝜎(𝑖) ≤ 𝑖 für alle 1 ≤ 𝑖 ≤ 𝑛. Dies
ist nur für 𝑒 ∈ 𝑆𝑛 erfüllt. Also folgt det(𝐴) = 𝑎11 · 𝑎22 · · · · · 𝑎𝑛𝑛 . Ein Speziallfall
davon sind Diagonalmatrizen

𝑎11 0
⎛ ⎞
..
⎜ . ⎟
𝐴=⎜
⎜ ⎟
⎝ . ..


0 𝑎𝑛𝑛

4 Sei 𝑐1 . . . 𝑐𝑛 ∈ 𝐾, 𝐵 ∈ Mat(𝑛 − 1, 𝑛 − 1; 𝐾)
⎛ ⎞
𝑐1
..


⎜ B .
..



𝐴=⎜
⎜ . ⎟


⎝ 𝑐𝑛−1 ⎟

0 ... ... 0 𝑐𝑛

Dann gilt 𝑎𝑛𝑖 = 0∀𝑖 < 𝑛.


D.h. es tauchen nur Summanden auf mit 𝜎(𝑛) = 𝑛, also nur 𝜎 ∈ 𝑆𝑛−1 ⊂ 𝑆𝑛 .
∑︁
det(𝐴) = sign(𝜎) 𝑎𝜎(1)1 . . . 𝑎𝜎(𝑛−1)(𝑛−1) 𝑎𝑛𝑛 == det(𝐵) · 𝑐𝑛
𝜎∈𝑆𝑛−1

da 𝑎𝑛𝑛 = 𝑐𝑛 und 𝑎𝑖𝑗 = 𝑏𝑖𝑗 für 1 ≤ 𝑖, 𝑗 ≤ 𝑛 − 1.


Proposition 8.19
Eigenschaften der Determinante
1 det(𝐴 · 𝐵) = det(𝐴) · det(𝐵) ∀ 𝐴, 𝐵 ∈ Mat(𝑛, 𝑛; 𝐾)

2 det(𝑙 · 𝐴) = 𝑙𝑛 · det(𝐴) ∀ 𝑙 ∈ 𝐾, 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾)

113
3 det(0) = 0 det(1𝑛 ) = 1
4 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) ist genau dann invertierbar, wenn det(𝐴) ̸= 0.
Dann gilt det(𝐴−1 ) = (det(𝐴))−1 .
Korollar 8.20. Die Abbildung
det : 𝐺𝐿𝑛 (𝐾) → 𝐾 ∖ {0}
ist ein Gruppenhomomorphismus in die multiplikative Gruppe.
Der Kern ker(det) ist eine Untergruppe.
ker(det) =: 𝑆𝐿𝑛 (𝐾) = { 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) | det(𝐴) = 1} ⊂ GL𝑛 (𝐾)
Sie heißt Spezielle lineare Gruppe.
Proposition 8.21

det(𝐴) = det(𝐴𝑇 ) ∀ 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾)


Beweis.
Benutzen Leibnizformel. Da Multiplikationen in 𝐾 kommutativ sind, können wir die
Faktoren vertauschen mittels einer Permutation 𝜋 ∈ 𝑆𝑛
𝑎𝜎(1)1 . . . 𝑎𝜎(𝑛)𝑛 = 𝑎𝜎(𝜋(1))𝜋(1) . . . 𝑎𝜎(𝜋(𝑛))𝜋(𝑛)
Betrachte 𝜋 = 𝜎 −1
∑︁
det(𝐴) = sign 𝜎𝑎𝜎(1)1 . . . 𝑎𝜎(𝑛)𝑛
𝜎∈𝑆𝑛
∑︁
= sign 𝜎𝑎𝜎(𝜎−1 (1))𝜎−1 (1) . . . 𝑎𝜎(𝜎−1 (𝑛))𝜎−1 (𝑛)
𝜎∈𝑆𝑛
∑︁
= sign 𝜎𝑎1𝜎−1 (1) . . . 𝑎𝑛𝜎−1 (𝑛) .
𝜎∈𝑆𝑛

Schreibe 𝐴𝑇 = (𝑎𝑡𝑖𝑗 ), also 𝑎𝑡𝑖𝑗 = 𝑎𝑗𝑖


∑︁
= sign 𝜎𝑎𝑡𝜎−1 (1)1 . . . 𝑎𝑡𝜎−1 (𝑛)𝑛
𝜎∈𝑆𝑛
∑︁
= sign 𝜎 −1 𝑎𝑡𝜎−1 (1)1 . . . 𝑎𝑡𝜎−1 (𝑛)𝑛
𝜎 −1 ∈𝑆𝑛
𝑇
= det(𝐴 )
Wobei im letzten Schritt verwendet wurde, dass sign(𝜎) = sign(𝜎 −1 ) , denn
𝑆𝑛 → 𝑆𝑛
𝜎 ↦→ 𝜎 −1
ist eine Bijektion.

114
Proposition 8.22
Wir können die Determinante als Determinantenform in Alt𝑛 (Mat(𝑛, 1; 𝐾), 𝐾) auffassen.
(𝑠1 . . . 𝑠𝑛 ) ist die Matrix mit Spaltenvektoren 𝑠1 . . . 𝑠𝑛 .

det : Mat(𝑛, 1; 𝐾)𝑛 → 𝐾


(𝑠1 , . . . , 𝑠𝑛 ) ↦→ det(𝑠1 . . . 𝑠𝑛 )

Dann entspricht die Determinante der Determinantenform 𝛿 ∈ Alt𝑛 (Mat(𝑛, 1; 𝐾), 𝐾) für
die gilt 𝛿(𝑒1 , . . . , 𝑒𝑛 ) = 1.
Insbesondere gilt folgendes Verhalten unter elementaren Spaltentransformationen

det(𝑠𝑖 (𝑘)(𝐴)) = 𝑘 · det(𝐴)


det(𝑠𝑖𝑗 (𝑘)(𝐴)) = det(𝐴)
det(𝑠𝑖𝑗 (𝐴)) = − det(𝐴)

Mit Proposition 8.21 gilt das gleiche für Zeilentransformationen.


Beweis.
Sei 𝛿 ∈ Alt𝑛 (Mat(𝑛, 1; 𝐾), 𝐾) die Determinantenform die durch 𝛿(𝑒1 , . . . , 𝑒𝑛 ) = 1 be-
stimmt ist. Dann gilt

det(𝐴) = det(𝐴∙)
(𝐴∙)* 𝛿(𝑒1 , . . . , 𝑒𝑛 )
=
𝛿(𝑒1 , . . . , 𝑒𝑛 )
= 𝛿(𝐴 · 𝑒1 , . . . , 𝐴 · 𝑒𝑛 )
= 𝛿(𝑠1 , . . . , 𝑠𝑛 )

Das Verhalten unter elementaren Spaltentransformationen folgt dann aus der Multilinea-
rität und der alternierenden Eigenschaft.
Bemerkung. Dies kann man benutzen, um Determinanten von 𝐴 zu berechnen, indem
man 𝐴 in Zeilenstufenform bringt. Da jede Matrix in Zeilenstufenform eine obere Drei-
ecksmatrix ist.
Beispiel.
⎛ ⎞ ⎛ ⎞
0 15 3 1 1 0
𝑧 13
det ⎝4 9 2⎠ = − det ⎝4 9 2⎠
1 1 0 0 15 3
⎛ ⎞ ⎛ ⎞
1 1 0 1 1 0
𝑧 21 (−4) 𝑧 32 (−3)
= − det ⎝0 5 2⎠ = − det ⎝0 5 2 ⎠ = −1 · 5 · (−3) = 15
0 15 3 0 0 −3
Definition 8.23
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Dann ist 𝐴[𝑖𝑗] ∈ Mat(𝑛 − 1, 𝑛 − 1; 𝐾)die Matrix, die aus 𝐴 durch
Streichung der 𝑖-ten Zeile und der 𝑗-ten Spalte hervorgeht.

115
Satz 8.24 (Laplace’scher Entwicklungssatz)
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Dann gilt für alle 1 ≤ 𝑗 ≤ 𝑛
𝑛
∑︁
det(𝐴) = (−1)𝑖+𝑗 𝑎𝑖𝑗 det(𝐴[𝑖𝑗]).
𝑖=1

Dies nennt man Entwicklung der Determinanten nach der 𝑗-ten Spalte.
𝑗-te Spalte
⎛ ⎞
𝑎11 . . . . . . 𝑎1𝑛
⎜ .. .. ⎟
⎜ . . ⎟
𝐴=⎜ ⎟ 𝑖-te Zeile
⎜ . .. ⎟
⎝ .. . ⎠
𝑎𝑛1 𝑎𝑛𝑛
⎛ ⎞
𝑎11 . . . 𝑎1(𝑗−1) 𝑎1(𝑗+1) . . . 𝑎1𝑛
⎜ .. .. ⎟
⎜ . . ⎟
⎜ ⎟
⎜𝑎(𝑖−1)1 . . . 𝑎(𝑖−1)𝑛

𝐴[𝑖𝑗] = ⎜
⎜𝑎(𝑖+1)1

. . . 𝑎(𝑖+1)𝑛 ⎟
⎜ .. .. ⎟
⎜ ⎟
⎝ . . ⎠
𝑎𝑛1 ... ... ... ... 𝑎𝑛𝑛
Beispiel. ⎛ ⎞
1 2 3
det ⎝ 4 5 6 ⎠ ; 𝑗=1
7 8 9
⎛ ⎞
1 2 3 (︂ )︂ (︂ )︂ (︂ )︂
5 6 2 3 2 3
det ⎝4 5 6 ⎠ = 1 · det − 4 · det + 7 · det
8 9 8 9 5 6
7 8 9
Beweis.
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Seinen 𝑠1 , . . . , 𝑠𝑛 die Spaltenvektoren von 𝐴 mit 𝑠𝑗 = 𝑛𝑖=1 𝑎𝑖𝑗 𝑒𝑖 .
∑︀
Sei Alt𝑛 (Mat(𝑛, 1; 𝐾)) mit 𝛿(𝑒1 , . . . , 𝑒𝑛 ) = 1.

det(𝐴) = 𝛿(𝑠1 , . . . , 𝑠𝑗 , . . . , 𝑠𝑛 )
∑︁𝑛
= 𝛿(𝑠1 , . . . , 𝑠𝑗−1 , 𝑎𝑖𝑗 𝑒𝑖 , 𝑠𝑗+1 , . . . , 𝑠𝑛 )
𝑖=1
𝑛
∑︁
= 𝑎𝑖𝑗 𝛿(𝑠1 , . . . , 𝑠𝑗−1 , 𝑒𝑖 , 𝑠𝑗+1 , . . . , 𝑠𝑛 )
𝑖=1
𝑛
∑︁
= det(𝑠1 . . . 𝑠𝑗−1 𝑒𝑖 𝑠𝑗+1 . . . 𝑠𝑛 )
𝑖=1

116
det(𝑠1 . . . 𝑠𝑗−1 𝑒𝑖 𝑠𝑗+1 . . . 𝑠𝑛 ) = (−1)𝑛−𝑗 det(𝑠1 . . . 𝑠𝑗−1 𝑠𝑗+1 . . . 𝑠𝑛 𝑒𝑖 )
Wenn wir die Zeilen so vertauschen, das in der letzten Spalte der Eintrag 1 in die letzte
Zeile kommt, so erhalten wir die Matrix
⎛ ⎞
0
.. ⎟
. ⎟

𝐴[𝑖, 𝑗]

⎜ ⎟ = 𝑀𝑖,𝑗

⎝ 0 ⎟

* ... * 1

und

det(𝑠1 . . . 𝑠𝑗−1 𝑒𝑖 𝑠𝑗+1 . . . 𝑠𝑛 )


⎛ ⎞
0
.. ⎟
. ⎟

𝐴[𝑖, 𝑗]
𝑛−𝑗+𝑛−𝑖

= (−1) det ⎜ ⎟

⎝ 0 ⎟ ⎠
* ... * 1
⎛ ⎞
*
.. ⎟
. ⎟

𝐴[𝑖, 𝑗]
𝑛−𝑗+𝑛−𝑖

= (−1) det ⎜ ⎟

⎝ * ⎟ ⎠
0 ... 0 1
= (−1)𝑖+𝑗 det 𝐴[𝑖, 𝑗].

Also folgt
𝑛
∑︁
det(𝐴) = 𝑎𝑖𝑗 det 𝐴[𝑖, 𝑗].
𝑖=1

Definition 8.25
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Die komplementäre Matrix zu 𝐴:

𝐴# = (𝑎#
𝑖𝑗 ) ∈ Mat(𝑛, 𝑛; 𝐾)

ist gegeben durch


𝑎#
𝑖𝑗 := (−1)
𝑖+𝑗
det 𝐴[𝑗, 𝑖]

Bemerkung. det 𝐴[𝑖, 𝑗] nennt man auch den (𝑖, 𝑗)-ten Minor von 𝐴.

Bemerkung. Die Matrix 𝐴# nennt man auch die Adjunkte von 𝐴. Die Kofaktormatrix
zu 𝐴 ist
(𝐴# )𝑇 .

117
Beispiel. ⎛ ⎞
1 2 3
𝐴 = ⎝4 5 7⎠
2 1 0
⎛ (︂ )︂ (︂ )︂ (︂ )︂⎞
5 7 2 3 2 3
det − det det
(︂1 0)︂ (︂1 0)︂ (︂5 7)︂⎟
⎜ ⎛ ⎞
⎜ ⎟ −7 3 −1
⎜ 4 7 1 3 1 3 ⎟ ⎝

𝐴# = ⎜
⎜− det 2 0 det − det = 14 −6 5 ⎠
⎜ (︂ )︂ (︂2 0)︂ (︂4 7)︂⎟⎟ −6 3 −3
⎝ 4 5 1 2 1 2 ⎠
det − det det
2 1 2 1 4 5

Satz 8.26 (Cramersche Regel)


Für 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) gilt

𝐴 · 𝐴# = det(𝐴) · 1𝑛 = 𝐴# · 𝐴.

Falls 𝐴 ∈ GL𝑛 (𝐾), so gilt


1
𝐴−1 = 𝐴#
det(𝐴)
und die eindeutige Lösung des linearen Gleichungsystems 𝐴 · 𝑥 = 𝑏 ist
⎛ ⎞
det(𝐵1 )
1 ⎜ ..
𝑥= .

det(𝐴)
⎝ ⎠
det(𝐵𝑛 )

wobei 𝐵𝐽 die Matrix ist, die man erhält, wenn man in 𝐴 den 𝑗-ten Spaltenvektor durch
b eretzt.

Beweis.

𝑛
∑︁
(𝐴 · 𝐴# )𝑖𝑖 = 𝑎𝑖𝑗 𝑎#
𝑗𝑖
𝑗=1
𝑛
∑︁
= 𝑎𝑖𝑗 (−1)𝑖+𝑗 det 𝐴[𝑖, 𝑗] = det(𝐴) ∀1 ≤ 𝑖 ≤ 𝑛,
𝑗=1

wobei im letzten Schritt Satz 8.24 verwendet wurde.


𝑛
∑︁
#
(𝐴 · 𝐴 ) 𝑖𝑘 = 𝑎𝑖𝑗 𝑎#
𝑗𝑘
𝑖̸=𝑘
𝑗=1
𝑛
∑︁
= 𝑎𝑖𝑗 (−1)𝑗+𝐾 det 𝐴[𝑘, 𝑗]
𝑗=1

118
Dies ist nach Satz 8.24 die Determinante det(𝐴),
˜ wobei 𝐴˜ die Matrix ist, die man erhält,
wenn man die 𝑘-te Zeile durch die 𝑖-te Zeile ersetzt und nach der 𝑘-ten Zeile entwickelt.
Für diese Matrix gilt aber det(𝐴)
˜ = 0, weil sie zwei gleiche Zeilen hat. Also folgt

𝐴 · 𝐴# = det(𝐴) · 1𝑛

und 𝐴# · 𝐴 = det(𝐴) · 1𝑛 zeigt man analog.


Für 𝐴 ∈ GL𝑛 (𝐾) folgt sofort
1
𝐴−1 = 𝐴#
det(𝐴)
und 𝐴 · 𝑥 = 𝑏 hat eine eindeutige Lösung

𝑥 = 𝐴−1 · 𝑏.

Entwicklung nach der 𝑗-ten Spalte:


𝑛
∑︁ 𝑛
∑︁
det(𝐵𝑗 ) = (−1) 𝑖+𝑗
𝑏𝑖 det(𝐴[𝑖, 𝑗]) = 𝑏 𝑖 𝑎# #
𝑗𝑖 = (𝐴 · 𝑏)𝑗 = det(𝐴)(𝐴
−1
· 𝑏)𝑗
𝑖=1 𝑖=1

also folgt ⎛ ⎞
det(𝐵1 )
1 ..
𝑥= . ⎠.
⎜ ⎟
det(𝐴)

det(𝐵𝑛 )

Übung:
Nehmen sie 𝐴, 𝐴# aus dem vorherigen Beispiel und rechnen sie

𝐴 · 𝐴# = det(𝐴) · 1𝑛 = 𝐴# · 𝐴

nach. Betrachten sie außerdem das Gleichungssystem


⎛ ⎞
0
𝐴 · 𝑥 = 1⎠ .

0
Bemerkung. Die Cramer’sche Regel ist schön, da sie eine geschlossene Formel gibt, aber
der Gauß-Algorithmus ist effizienter zur Lösung eines linearen Gleichungssystem.

Geometrische Interpretation der Determinante


Sei 𝐴 ∈ Mat(𝑛, 𝑛; R), dann ist | det(𝐴)|, das Volumen des Parallelotops das von den
Spaltenvektoren 𝑠1 , . . . , 𝑠𝑛 von 𝐴 aufgespannt wird.
𝑛
∑︁
𝑃 (𝑠1 , . . . , 𝑠𝑛 ) = { 𝑥𝑖 𝑠𝑖 | 0 ≤ 𝑥𝑖 ≤ 1 ∀1 ≤ 𝑖 ≤ 𝑛 }
𝑖=1

| det(𝑠1 . . . 𝑠𝑛 )| = 𝑉 𝑜𝑙(𝑃 (𝑠1 , . . . , 𝑠𝑛 )).

119
8.3 Orientierung
Orientierung eines reellen Vektorraums
Die Determinante erlaubt uns für einen reellen Vektorraum, eine Orientierung zu defi-
nieren. Sei 𝐴 = (𝑠1 , . . . , 𝑠𝑛 ) eine Basis von Mat(𝑛, 1; 𝑅), so gilt det(𝑠1 . . . 𝑠𝑛 ) ̸= 0. Wir
können jede Basis (𝑏1 , . . . , 𝑏𝑛 ) durch ein Element 𝑇 ∈ GL𝑛 (R) auf eine andere Basis
(𝑠1 , . . . , 𝑠𝑛 ) abbilden.
Mittels der Determinante können wir auf der Menge aller Basen eines Vektorraums 𝑉
eine Äquivalenzrelation einführen. Hierzu führen wir die Gruppe

GL+
𝑛 (R) = {𝑇 ∈ GL𝑛 (R) | det(𝑇 ) > 0 }

ein.

Lemma 8.27. Sei 𝑉 ein 𝑛-dimensionaler R-Vektorraum. Sei B die Menge der Basen von 𝑉

B = { (𝑣1 , . . . , 𝑣𝑛 ) ∈ 𝑉 𝑛 | {𝑣1 , . . . , 𝑣𝑛 } Basis von 𝑉 .}

Die Relation
𝐴 ∼ 𝐵 :⇔ Mat𝒜ℬ (𝑖𝑑𝑣 ) ∈ GL+
𝑛 (R)

ist eine Äquivalenzrelation auf B. Es gibt genau 2 Äquivalenzklassen.

Beweis.
∼ ist eine Äquivalenzrelation.

1 𝐴 ∼ 𝐴, da Mat𝒜𝒜 (𝑖𝑑𝑉 ) = 1𝑛

2 𝐴 ∼ 𝐵 ⇒ 𝐵 ∼ 𝐴. Matℬ𝒜 (𝑖𝑑𝑉 ) = Mat𝒜ℬ (𝑖𝑑𝑉 )−1

3 𝐴 ∼ 𝐵, 𝐵 ∼ 𝐶 ⇒ 𝐴 ∼ 𝐶, da sich Transformationen multiplizieren.

Sei 𝐴 ∈ B fest gewählt. Seien 𝐵, 𝐵 ′ ∈ B mit 𝐴 


∼  𝐵 . Dann gilt 𝐵 ∼ 𝐵 , da

 𝐵, 𝐴 
′ ′

det(Matℬℬ′ (𝑖𝑑𝑉 )) = det(Mat𝒜ℬ′ (𝑖𝑑𝑉 ) · Matℬ𝒜 (𝑖𝑑𝑉 ))


= det(Mat𝒜ℬ′ (𝑖𝑑𝑉 )) · det(Matℬ𝒜 (𝑖𝑑𝑉 )) > 0

Warum gibt es zwei Äquivalenzklassen?


Klar, da
GL+ 𝑛 (𝑛, R) ( GL𝑁 (R)

und es Basiswechselmatrizen mit det < 0 gibt.

Definition 8.28
Die Auswahl einer Äquivalenzklasse bezüglich ∼ heißt Orientierung des 𝑛-dimensionalen
R-Vektorraums 𝑉 . Ein Element dieser Äquivalenzklasse heißt orientierte Basis.

120
Bemerkung. Die Standardbasis (𝑒1 , . . . , 𝑒𝑛 ) gibt die kanonische Projektion auf R𝑛 , d.h.
eine Basis (𝑣1 , . . . , 𝑣𝑛 ) von R𝑛 ist orientiert, falls det(𝑣1 . . . 𝑣𝑛 ) > 0 ist.

Beispiel. R3 ; 𝑥, 𝑦 ∈ R3 sind linear unabhängig. 0 ̸= 𝑧 = 𝑥 × 𝑦 ∈ R3 ist das Kreuzprodukt


und
det(𝑥, 𝑦, 𝑥 × 𝑦) > 0.
Dann ist (𝑥, 𝑦, 𝑥 × 𝑦) eine orientierte Basis von R3 .

9 Eigenwerte und Eigenvektoren


Das Ziel ist eine genauere Analyse von Endomorphismen eines endlich-dimensionalen
𝐾-Vektorraums 𝑉 . Im Beweis von Satz 7.20 haben wir folgendes gesehen:
Sei 𝑓 : 𝑉 → 𝑊 linear, dann ∃𝒜 geordnete Basis von 𝑉 , ℬ geordnete Basis von 𝑊 , so
dass
1𝑘 0
(︃ )︃
Mat𝒜ℬ (𝑓 ) =
0 0
wobei 𝑘 = Rang(𝑓 ).

Nun wollen wir folgende Situationen verstehen:


Sei 𝑓 : 𝑉 → 𝑉 linear. Wie können wir die Matrixdarstellungen Mat𝒜𝒜 (𝑓 ) durch geschickte
Wahl der geordneten Basis 𝒜 von V vereinfachen.

9.1 Polynome
Definition 9.1
Ein Polynom mit Koeffizienten in einem Körper 𝐾 ist eine Folge 𝑝 = (𝑝𝑖 )∞ 𝑖=0 mit 𝑝𝑖 ∈ 𝐾
für alle 𝑖 und so dass es ein 𝑖0 ≥ 0 gibt mit 𝑝𝑖 = 0 für alle 𝑖 > 𝑖0 . Wir schreiben
𝑖0
∑︁
𝑝(𝑡) = 𝑝𝑖 𝑡𝑖 ,
𝑖=0

𝑡 ist hierbei eine Unbestimmte.


Die Menge aller Polynome bezeichnen wir mit 𝐾[𝑡]. Das Nullpolynom ist das Polynom

(𝑝𝑖 )∞
𝑖=0 ∈ 𝐾[𝑡]

mit 𝑝𝑖 = 0 für alle 𝑖. Ein Polynom heißt konstant, falls 𝑝𝑖 = 0 für alle 𝑖 > 0. Der Grad

deg(𝑝) = deg((𝑝𝑖 )∞
𝑖=0 )

eines von Null verschiedenen Polynoms ist das größte 𝑖 ∈ N0 mit 𝑝𝑖 ̸= 0.


Den Grad des Nullpolynoms definieren wir als −∞.

121
Lemma 9.2. Die Menge aller Polynome 𝐾[𝑡] trägt die Struktur eines 𝐾-Vektorraums

(𝑝𝑖 )∞ ∞ ∞
𝑖=0 + (𝑞𝑖 )𝑖=0 := (𝑝𝑖 + 𝑞𝑖 )𝑖=0

𝑘 · (𝑝𝑖 )∞ ∞
𝑖=0 := (𝑘𝑝𝑖 )𝑖=0

Eine Basis ist z.B. {1, 𝑡, 𝑡2 , 𝑡3 , . . . }. Es gilt

deg(𝑝 + 𝑞) ≤ max{deg(𝑝), deg(𝑞)}

mit Gleichheit, falls deg(𝑝) ̸= deg(𝑞) und deg(𝑘 · 𝑝) = deg(𝑝) ∀𝑘 ∈ 𝐾 ∖ {0}.

Definition 9.3
Man kann Elemente von 𝐾 in Polynome einsetzten. Sei 𝑝 ∈ 𝐾[𝑡], 𝑘 ∈ 𝐾, so ist

∑︁
𝑝(𝑘) := 𝑝𝑖 𝑘 𝑖 ∈ 𝐾.
𝑖=0

Jedes Polynom definiert daher eine Abbildung von 𝐾 nach 𝐾.

𝐾[𝑡] → Abb(𝐾, 𝐾)
𝑝 ↦→ (𝑘 ↦→ 𝑝(𝑘))

Bemerkung. Das Polynom kann man nicht mit der Abbildung gleichsetzten. Betrachte
z.B. 𝑝 = (𝑝𝑖 )∞
𝑖=0
𝑝(𝑡) = 𝑡2 + 𝑡 ∈ F2 [𝑡].
So ist 𝑝 nicht das Nullpolynom, aber

𝑝(𝑘) = 0 ∀𝑘 ∈ F2 = Z/2Z

Lemma 9.4. Mittels der Multiplikation

∙ :𝐾[𝑡] × 𝐾[𝑡] → 𝐾[𝑡]


(𝑝, 𝑞) → (𝑝 · 𝑞)

wobei für 𝑝 = (𝑝𝑖 )∞ ∞


𝑖=0 , 𝑞 = (𝑞𝑖 )𝑖=0

𝑖
∑︁
(𝑝 · 𝑞) = (𝑟𝑖 )∞
𝑖=0 mit 𝑟𝑖 = 𝑝𝑗 𝑞𝑖−𝑗
𝑗=0

ist 𝐾[𝑡] ein kommutativer, nullteilerfreier Ring mit 1. Es gilt deg(𝑝 · 𝑞) = deg(𝑝) + deg(𝑞).

Bemerkung. 𝐾[𝑡] ist ein Ring, kein Körper, d.h. wir haben keine inversen Elemente
bezüglich der Multiplikation, also keine Divison. Aber wir können eine Division mit Rest
einführen (z.B. wie in Z).

122
Satz 9.5
Seien 𝑝, 𝑞 ∈ 𝐾[𝑡], 𝑞 =
̸ 0. Dann gibt es eindeutig bestimmte Polynome 𝑥, 𝑟 ∈ 𝐾[𝑡], so dass
𝑝 = 𝑥 · 𝑞 + 𝑟 mit deg(𝑟) < deg(𝑞).
Beweis.
Zeige zuerst die Eindeutigkeit. Nehme an, es gäbe 𝑥, 𝑥′ , 𝑟, 𝑟′ ∈ 𝐾[𝑡], so dass deg(𝑟) <
deg(𝑞), deg(𝑟′ ) < deg(𝑞) und
𝑥′ 𝑞 + 𝑟 ′ = 𝑝 = 𝑥 · 𝑞 + 𝑟
Dann folgt (𝑥′ − 𝑥) · 𝑞 = (𝑟 − 𝑟′ ). Falls (𝑥 − 𝑥′ ) ̸= 0, so folgt
deg(𝑟 − 𝑟′ ) = deg 𝑞 + deg(𝑥 − 𝑥′ ) ≥ deg(𝑞)
Dies ist ein Widerspruch zur Annahme max{deg(𝑟), deg(𝑟′ )} < deg(𝑞)}. Also (𝑥−𝑥′ ) = 0,
also 0 = (𝑟 − 𝑟′ ).
Beweis der Existenz: Vollständige Induktion über den Grad von 𝑝.

IA: Für deg(𝑝) = 0 ist die Existenz klar, da


entweder deg(𝑞) = 0 Division im Körper 𝐾,
oder deg(𝑞) > 0. Dann 𝑥 = 0, 𝑟 = 𝑝.

IS: Wir können annehmen, dass die Aussage gilt


1 für alle Polynome von Grad < deg 𝑝
2 für deg(𝑝) < deg(𝑞), weil dann die gilt Existenz mit 𝑝 = 0 · 𝑞 + 𝑝.
Also müssen wir nur noch den Fall deg(𝑝) ≤ deg(𝑞) betrachten. Definiere
𝑝 deg 𝑝
𝑝′ (𝑡) = 𝑝(𝑡) − 𝑡 deg(𝑝)−deg(𝑞)
𝑞(𝑡).
𝑞 deg 𝑞
Dann gilt 𝑝′deg(𝑝) = 0, daher deg(𝑝′ ) < deg(𝑝). Also gilt ∃ 𝑥′ , 𝑟′ ∈ 𝐾[𝑡] mit

𝑝′ = 𝑥 ′ · 𝑞 + 𝑟 ′ mit deg(𝑟′ ) < deg(𝑞).


Dann gilt
𝑝deg(𝑝)
𝑝(𝑡) = 𝑝′ (𝑡) + 𝑡 deg(𝑝)−deg(𝑞)
𝑞(𝑡)
𝑞deg(𝑞)
𝑝deg(𝑝)
= 𝑥′ (𝑡) · 𝑞(𝑡) + 𝑟′ (𝑡) + 𝑡 deg(𝑝)−deg(𝑞) 𝑞(𝑡)
𝑞deg(𝑞)
(︂ )︂
′ deg(𝑝)−deg(𝑞) 𝑝deg(𝑝)
= 𝑥 (𝑡) + 𝑡 · 𝑞(𝑡) + 𝑟′ (𝑡)
𝑞deg(𝑞)
= 𝑥(𝑡) · 𝑞(𝑡) + 𝑟′ (𝑡)
mit deg(𝑟′ ) < deg(𝑞)

123
Definition 9.6
Ein 𝑎 ∈ 𝐾 heißt Nullstelle des Polynoms 𝑝 ∈ 𝐾[𝑡], falls 𝑝(𝑎) = 0.

Korollar 9.7. Falls 𝑎 ∈ 𝐾 eine Nullstelle von 𝑝 ∈ 𝐾[𝑡] ist, so teilt das Polynom 𝑞(𝑡) =
(𝑡 − 𝑎) ∈ 𝐾[𝑡], das Polynom 𝑝 ohne Rest, d.h. ∃𝑥 ∈ 𝐾[𝑡] mit

𝑝(𝑡) = (𝑡 − 𝑎)𝑥(𝑡).

Beweis.
Nach Satz 9.5
∃𝑥, 𝑟 ∈ 𝐾[𝑡] mit deg(𝑟) < 1
so dass
𝑝(𝑡) = 𝑥(𝑡)(𝑡 − 𝑎) + 𝑟(𝑡).
Da 𝑟(𝑡) ein konstantes Polynom ist und

𝑟(𝑎) = 𝑝(𝑎) − 𝑥(𝑎) · (𝑎 − 𝑎) = 0

also gilt 𝑟 = 0.

Proposition 9.8
Jedes Polynom 0 ̸= 𝑝 ∈ 𝐾[𝑡] kann auf eindeutige Weise dargestellt werden als
(︃ 𝑚 )︃
∏︁
𝑝(𝑡) = (𝑡 − 𝑥𝑖 )𝜈𝑖 𝑞(𝑡)
𝑖=1

wobei 𝑥𝑖 . . . 𝑥𝑚 die Nullstellen von 𝑝 sind und 𝑞(𝑘) ̸= 0 für alle 𝑘 ∈ 𝐾. Man nennt 𝜈𝑖 ∈ 𝑁
die Multiplizität der Nullstelle 𝑥𝑖 und schreibt auch 𝜈𝑖 = 𝜇𝑥𝑖 (𝑝).

Beweis.
Existenz folgt aus Korollar 9.7: Falls 𝐾[𝑡] ∋ 𝑝 ̸= 0 eine Nullstelle hat, dividiert 𝑝 durch
das Polynom (𝑡 − 𝑥). Widerhole dies mit dem resultierenden Polynom. Da der Grad
deg(𝑝) endlich ist, ist diese Konstruktion nach endlich vielen Schritten beendet.

Eindeutigkeit: Nehme an, es gäbe zwei unterschiedliche Darstellungen.


𝑚 𝑚

∏︁ ∏︁
𝜈𝑖
(𝑡 − 𝑥𝑖 ) 𝑞(𝑡) = 𝑝(𝑡) = (𝑡 − 𝑥𝑖 )𝜈𝑖 𝑞 ′ (𝑡)
𝑖=1 𝑖=1

OBdA können wir annehmen, dass 𝜈1 < 𝜈1′


(︃ 𝑚 𝑚
)︃
′ ′
∏︁ ∏︁
0 = (𝑡 − 𝑥1 )𝜈1 (𝑡 − 𝑥𝑖 )𝜈𝑖 𝑞(𝑡) − (𝑡 − 𝑥1 )𝜈1 −𝜈1 (𝑡 − 𝑥𝑖 )𝜈𝑖 𝑞 ′ (𝑡)
𝑖=2 𝑖=2
⏟ ⏞
=0

124
Also ist 𝑚 𝑚
𝜈𝑖′ −𝜈𝑖 ′
∏︁ ∏︁
𝜈𝑖
(𝑡 − 𝑥𝑖 ) 𝑞(𝑡) = (𝑡 − 𝑥1 ) (𝑡 − 𝑥𝑖 )𝜈𝑖 𝑞 ′ (𝑡).
𝑖=2 𝑖=2
Dies kann nicht sein, da 𝑥1 eine Nullstellen der rechten Seite, nicht aber der linken Seite
ist. Also folgt 𝜈𝑖 = 𝜈𝑖′ ∀1 ≤ 𝑖 ≤ 𝑚, also 𝑞(𝑡) = 𝑞 ′ (𝑡).
Korollar 9.9. Ein Polynom 0 ̸= 𝑝 ∈ 𝐾[𝑡] kann höchstens deg(𝑝) viele Nullstellen besitzten.
Korollar 9.10. Falls 𝐾 unendlich ist, so ist die Abbildung

𝐾[𝑡] → Abb(𝐾, 𝐾)
𝑝 ↦→ (𝑘 ↦→ 𝑝(𝑘))

injektiv, d.h. die Abbildung 𝑘 ↦→ 𝑝(𝑘) bestimmt das Polynom eindeutig.


Beweis.
Nehme an, es gäbe 𝑝, 𝑝′ ∈ 𝐾[𝑡] mit 𝑝 =
̸ 𝑝′ , die aber die gleiche Abbildung in Abb(𝐾.𝐾)
definieren. Dann gilt

0 ̸= (𝑝 − 𝑝′ ) aber (𝑝 − 𝑝′ )(𝑘) = 0 ∀𝑘 ∈ 𝐾.

Wenn 𝐾 also unendlich ist, hätte (𝑝 − 𝑝′ ) unendlich viele Nullstellen. Dies ist ein
Widerspruch zu Korollar 9.9.
Definition 9.11
Ein Körper 𝐾 heißt algebraisch abgeschlossen, falls jedes nicht-konstante Polynom in
𝐾[𝑡] eine Nullstelle in 𝐾 besitzt.
Beispiel.

1 Endliche Körper sind nicht algebraisch abgeschlossen. Sei 𝐾 = {𝑥1 , . . . , 𝑥𝑛 }. Dann


hat 𝑛
∏︁
𝑝(𝑡) = (𝑡 − 𝑥𝑖 ) + 1
𝑖=1
keine Nullstellen.

2 R ist nicht algebraisch abgeschlossen, da 𝑝(𝑡) = 𝑡2 + 1 keine Nullstelle in R hat.


Jedes Polynom 𝑝 ∈ R[𝑡] von ungeradem Grad hat eine Nullstelle. Der Beweis erfolgt
durch die Anwendung der Analysis: Aus dem Zwischenwertsatz und der durch
Polynome definierten Abbildungen 𝑘 ↦→ 𝑝(𝑘), folgt, dass wenn deg(𝑝) ungerade ist,
gilt

lim 𝑝(𝑘) = −∞
𝑘→−∞

lim 𝑝(𝑘) = +∞
𝑘→+∞

Da Polynome stetig sind, muss somit ein 𝑥0 ∈ R existieren, sodass 𝑝(𝑥0 ) = 0

125
Korollar 9.12. Ist 𝐾 algebraisch abgeschlossen, so zerfällt jedes Polynom 𝑝 ∈ 𝐾[𝑡] in
Linearfaktoren
𝑚
∏︁
𝑝(𝑡) = 𝑎 (𝑡 − 𝑥𝑖 )𝜈𝑖 𝑎, 𝑥𝑖 , . . . , 𝑥𝑚 ∈ 𝐾.
𝑖=1

Satz 9.13
C ist algebraisch abgeschlossen.

9.2 Eigenwerte und Eigenvektoren


Um 𝑓 : 𝑉 → 𝑉 zu analysieren suchen wir invariante Unterräume, das sind Untervektor-
räume {0} =
̸ 𝑈 ⊂ 𝑉 mit
𝑓 (𝑈 ) ⊂ 𝑈.
Haben wir einen invarianten Unterraum, so wählen wir eine Basis (𝑣1 , . . . , 𝑣𝑘 ) von 𝑈 ,
ergänzen diese durch 𝑣𝑘+1 , . . . , 𝑣𝑛 zu einer geordneten Basis 𝒜 = (𝑣1 , . . . , 𝑣𝑘 , 𝑣𝑘+1 , . . . , 𝑣𝑛 )
von 𝑉 . Dann gilt (︃ )︃
𝐴 𝐵
Mat𝒜𝒜 (𝑓 ) =
0 𝐶
mit 𝐴 ∈ Mat(𝑘, 𝑘; 𝐾) 𝐵 ∈ Mat(𝑘, 𝑛 − 𝑘; 𝐾) 𝐶 ∈ Mat(𝑛 − 𝑘, 𝑛 − 𝑘; 𝐾).

Definition 9.14
Sei 𝑉 ein Vektorraum über 𝐾 und 𝑓 ∈ End(𝑉 ).

1 Für 𝜆 ∈ 𝐾 nennen wir den Untervektorraum

𝑉𝜆 (𝑓 ) := { 𝑣 ∈ 𝑉 | 𝑓 (𝑣) = 𝜆𝑣 } = ker(𝑓 − 𝜆𝑖𝑑𝑉 ) ⊆ 𝑉

den zu 𝜆 gehörigen Eigenraum von 𝑓 .

2 𝜆 ∈ 𝐾 heißt Eigenwert von 𝑓 , falls

𝑉𝜆 (𝑓 ) ̸= {0}.

3 Sei 𝜆 ∈ 𝐾 ein Eigenwert von 𝑓 . Dann nennen wir

dim(𝑉𝜆 (𝑓 )) ≥ 1

die Multiplizität des Eigenwerts 𝜆.

4 Sei 𝜆 ∈ 𝐾 ein Eigenwert von 𝑓 . Dann nennen wir die von 0 verschiedenen Elemente
in 𝑉𝜆 (𝑓 ) die Eigenvektoren von 𝑓 zum Eigenwert 𝜆.

126
Den zu 𝜆 ∈ 𝐾 gehörigen Eigenraum einer Matrix 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) definiert man als
den zu 𝜆 gehörigen Eigenraum des Endomorphismus

(𝐴∙) ∈ End(Mat(𝑛, 1; 𝐾))

𝑉𝜆 (𝐴) := { 𝑣 ∈ Mat(𝑛, 1; 𝐾) | 𝐴 · 𝑣 = 𝜆𝑣 } ⊂ Mat(𝑛, 1; 𝐾).


Falls 𝜆 ∈ 𝐾 mit 𝑉𝜆 (𝐴) ̸= {0} gilt, heißt 𝜆 Eigenwert von 𝐴.

Definition 9.15
Sei 𝑉 endlich-dimensional und 𝑓 ∈ End(𝑉 ). Kennt man den Eigenwert 𝜆 von 𝑓 , so lässt
sich der Eigenraum leicht berechnen:

𝑉𝜆 (𝑓 ) = ker(𝑓 − 𝜆𝑖𝑑𝑉 ).

Wähle eine geordnete Basis 𝒜 und betrachte

𝐴 = Mat𝒜𝒜 (𝑓 ).

Dann ist
𝑉𝜆 (𝑓 ) = Lös(𝐴 − 𝜆1𝑛 , 0)
der Lösungsraum des homogenen Gleichungssystem

(𝐴 − 𝜆1𝑛 ) · 𝑥 = 0.

Und 𝑉𝜆 (𝑓 ) = 𝑖𝒜 (𝑉𝜆 (𝐴)), wobei

𝑖𝐴 : Mat(𝑛, 1; 𝐾) → 𝑉

der durch 𝒜 gegebene Isomorphismus ist.

Proposition 9.16
Sei 𝑉 ein 𝑛-dimensionaler 𝐾-Vektorraum, 𝑓 ∈ End(𝑉 ) und 𝐴 = Mat𝒜𝒜 (𝑓 ) bezüglich
einer geordneten Basis 𝒜. Dann sind folgende Aussagen äquivalent:

1 𝜆 ist ein Eigenwert von 𝑓

2 det(𝜆𝑖𝑑𝑉 − 𝑓 ) = 0

3 det(𝜆1𝑛 − 𝐴) = 0.

Beweis.

2 ⇔ 3 gilt da 𝐴 ∈ Mat𝒜𝒜 (𝑓 ) impliziert

𝜆1𝑛 − 𝐴 = Mat𝒜𝒜 (𝜆𝑖𝑑𝑣 − 𝑓 ).

127
1 ⇒ 2 Sei 𝜆 ein Eigenwert von 𝑓 , dann gilt

{0} =
̸ 𝑉𝜆 (𝑓 ) = ker(𝜆𝑖𝑑𝑉 − 𝑓 ).

Also ist (𝜆𝑖𝑑𝑉 − 𝑓 ) nicht invertierbar ⇒ det(𝜆𝑖𝑑𝑉 − 𝑓 ) = 0.

2 ⇒ 1 Falls det(𝜆𝑖𝑑𝑉 −𝑓 ) = 0, so ist (𝜆𝑖𝑑𝑉 −𝑓 ) nicht bijektiv und da 𝑉 endlich dimensional


ist, insbesondere auch nicht injektiv. Also ist

𝑉𝜆 (𝑓 ) = ker(𝜆𝑖𝑑𝑉 − 𝑓 ) ̸= {0}.

Also ist 𝜆 ein Eigenwert von 𝑓 .

9.3 Das charakteristische Polynom


Definition 9.17

1 Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Das charakteristische Polynom von 𝐴 ist das Polynom

𝑋𝐴 (𝑡) := det(𝑡1𝑛 − 𝐴) ∈ 𝐾[𝑡]

2 Sei 𝑓 ∈ End(𝑉 ) ein Endomorphismus eines endlich-dimensionalen


𝐾-Vektorraums 𝑉 . Das charakteristische Polynom von 𝑓 ist

𝑋𝑓 (𝑡) := 𝑋Mat𝒜𝒜 (𝑓 ) (𝑡) ∈ 𝐾[𝑡],

wobei Mat𝒜𝒜 (𝑓 ) die Matrixdarstellung bezüglich einer beliebigen geordneten Basis


𝒜 von 𝑓 ist.

Bemerkung. (𝑡1𝑛 − 𝐴) ∈ Mat(𝑛, 𝑛; 𝐾[𝑡]) ist eine Matrix mit Einträgen in dem Ring 𝐾[𝑡].
Die Determinante ist über die Leibnizformel definiert.

Lemma 9.18. Das charakteristische Polynom 𝑋𝐴 (𝑡) ist ein Polynom in 𝐾[𝑡]

𝑋𝐴 (𝑡) = 𝑝𝑛 𝑡𝑛 + 𝑝𝑛−1 𝑡𝑛−1 + · · · + 𝑝1 𝑡 + 𝑝0 .

Der führende Koeffizient erfüllt 𝑝𝑛 = 1. Der Koeffizient

tr(𝐴) := −𝑝𝑛−1 = 𝑎11 + · · · + 𝑎𝑛𝑛

ist eine wichtige Invariante der Matrix 𝐴 und wird die Spur von A genannt. Der Koeffizient

𝑝0 = (−1)𝑛 det(𝐴).

128
Beweis.
Aus der Leibnizformel folgt, dass 𝑝𝑖 ∈ 𝐾 ∀𝑖, also ist 𝑋𝐴 (𝑡) ∈ 𝐾[𝑡]
⎛ ⎞
𝑡 − 𝑎11 −𝑎12 . . . −𝑎1𝑛
⎜ −𝑎21 𝑡 − 𝑎22 . . . −𝑎2𝑛 ⎟
(𝑡1𝑛 − 𝐴) = ⎜ .. .. . .. ⎟
⎜ ⎟
⎝ . . . . . ⎠
−𝑎𝑛1 ... . . . 𝑡 − 𝑎𝑛𝑛

Die Beiträge zu 𝑝𝑛 und 𝑝𝑛−1 können nur von Summanden kommen, die zu

𝜎 = 𝑖𝑑𝑆 = 𝑒 ∈ 𝑆𝑛

gehören, also
(𝑡 − 𝑎11 ) . . . (𝑡 − 𝑎𝑛𝑛 ).
Also folgt

𝑝𝑛 = 1
𝑝𝑛−1 = −(𝑎11 + · · · + 𝑎𝑛𝑛 )
𝑝0 = 𝑋𝐴 (0) = (−1)𝑛 det(𝐴).

Lemma 9.19. Sei 𝑓 ∈ End(𝑉 ). Das charakteristische Polynom 𝑋𝑓 (𝑡) hängt nicht von der
Wahl der Basis ab.

Beweis.
Seien 𝒜, ℬ geordnete Basen von 𝑉 .

𝑖𝑑𝑉 𝑓 𝑖𝑑𝑉
𝑉 𝑉 𝑉 𝑉
𝒜 ℬ ℬ 𝒜

det(𝑡 · 1𝑛 − Matℬℬ (𝑓 )) = det(Mat𝒜ℬ (𝑖𝑑𝑉 ) · (𝑡 · 1𝑛 − Mat𝒜𝒜 (𝑓 )) · Matℬ𝒜 (𝑖𝑑𝑉 ))


= det(Mat𝒜ℬ (𝑖𝑑𝑉 )) · det(𝑡 · 1𝑛 − Mat𝒜𝒜 (𝑓 )) · det(Matℬ𝒜 (𝑖𝑑𝑉 ))
= det(𝑡 · 1𝑛 − Mat𝒜𝒜 (𝑓 )) · det(Mat𝒜ℬ (𝑖𝑑𝑉 )) · det(Matℬ𝒜 (𝑖𝑑𝑉 ))
= det(𝑡 · 1𝑛 − Mat𝒜𝒜 (𝑓 ))

weil Mat𝒜ℬ (𝑖𝑑𝑉 ) = Matℬ𝒜 (𝑖𝑑𝑉 )−1 , also gilt

det(Mat𝒜ℬ (𝑖𝑑𝑉 )) · det(Matℬ𝒜 (𝑖𝑑𝑉 )−1 ) = 1.

Beispiel.

129
1 Ist 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) eine Diagonalmatrix, so ist (𝑡 · 1𝑛 − 𝐴) auch eine Diagonal-
matrix. 𝑛
∏︁
𝑋𝐴 (𝑡) = (𝑡 − 𝑎11 ) · · · · · (𝑡 − 𝑎𝑛𝑛 ) = (𝑡 − 𝑎𝑖𝑖 )
𝑖=1

2 Ist 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) eine obere Dreicksmatrix, dann ist (𝑡 · 1𝑛 − 𝐴) auch eine obere
Dreiecksmatrix. 𝑛
∏︁
𝑋𝐴 (𝑡) = (𝑡 − 𝑎𝑖𝑖 )
𝑖=1

Die Eigenwerte sind 𝑎𝑖𝑖 ∈ 𝐾, 1 ≤ 𝑖 ≤ 𝑛.


𝜆 1 0 ... 0
⎛ ⎞
. . .. ⎟

⎜ 𝜆 1 . .⎟
3 Jordanblock 𝐴 = ⎜
⎜ ... ... ⎟
⎜ 0⎟⎟
⎝ 𝜆 1⎠
0 𝜆

𝑋𝐴 (𝑡) = (𝑡 − 𝜆)𝑛

Es gibt nur einen Eigenwert 𝜆 ∈ 𝐾. Für die Dimension hat des Eigenraums 𝑉𝜆 (𝐴)
gilt:
dim(𝑉𝜆 (𝐴)) = 1,
wobei die Dimension des Eigenraums über die Lösung des Gleichungssystems
(𝜆 · 1𝑛 − 𝐴) · 𝑥 = 0 berechnet werden kann.

dim(𝑉𝜆 (𝐴)) = dim(Lös(𝜆 · 1𝑛 − 𝐴), 0) = 𝑛 − Rang(𝜆 · 1𝑛 − 𝐴) = 𝑛 − (𝑛 − 1) = 1


(︂ )︂
cos(𝜑) − sin(𝜑)
4 Sei 𝜑 ∈ R und 𝐴 = ∈ Mat(2, 2; R).
sin(𝜑) cos(𝜑)

𝑋𝐴 (𝑡) = (𝑡 − cos(𝜑))2 + sin2 (𝜑))


= 𝑡2 − 2 cos(𝜑)𝑡 + cos2 (𝜑) + sin2 (𝜑)
= 𝑡2 − 2 cos(𝜑)𝑡 + 1
= (𝑡 − 𝑒𝑖𝜑 )(𝑡 − 𝑒−𝑖𝜑 )

Über R: Eigenwerte nur, falls 𝜑 = 𝑚 · 𝜋 mit 𝑚 ∈ Z, also wenn sin(𝜑) = 0. Der


Eigenwert ist dann (−1)𝑚 und

𝐴 = (−1)𝑚 · 12 .

Also folgt 𝑉𝜆 (𝐴) = Mat(2, 1; R).

130
Über C:
𝑋𝐴 (𝑡) = (𝑡 − 𝑒𝑖𝜑 )(𝑡 − 𝑒−𝑖𝜑 )
Also gibt es Eigenwerte für alle 𝜑 ∈ R, und zwar

𝑒±𝑖𝜑 .

Für die Eigenräume ergibt sich:

𝑉𝑒±𝑖𝜑 (𝐴) = ker(𝑒±𝑖𝜑 · 12 − 𝐴)


(︂ (︂ )︂)︂
±𝑖 1
= ker sin(𝜑)
−1 ±𝑖
(︂ )︂
±𝑖
=C
1

5 ⎛ ⎞
7 1 −5
𝐴 = ⎝−1 1 1 ⎠
4 1 −2

⎛ ⎞
𝑡 − 7 −1 +5
𝑍 12 (7−𝑡)
𝑋𝐴 (𝑡) = det ⎝ 1 𝑡 − 1 −1 ⎠
𝑋 32 (4)
−4 −1 𝑡 + 2
⎛ ⎞
0 −1 − (𝑡 − 1)(𝑡 − 7) 5 + (𝑡 − 7)
𝑍 12 (7−𝑡)
= det ⎝ 1 𝑡−1 −1 ⎠
𝑋 32 (4)
0 −1 + 4(𝑡 − 1) 𝑡−2
(︂ )︂
𝑍 12 (7−𝑡) −1 − (𝑡 − 1)(𝑡 − 7) 5 + (𝑡 − 7)
= − det
𝑋 32 (4) −1 + 4(𝑡 − 1) 𝑡−2
𝑍 12 (7−𝑡)
= − (1 + (𝑡 − 1)(𝑡 − 7))(𝑡 − 2) − (4𝑡 − 5)(𝑡 − 2)
𝑋 32 (4)
𝑍 12 (7−𝑡)
= − (𝑡 − 2)(1 + (𝑡 − 1)(𝑡 − 7) + (4𝑡 − 5))
𝑋 32 (4)
𝑍 12 (7−𝑡)
= (𝑡 − 2)(𝑡 − 1)(𝑡 − 3)
𝑋 32 (4)

Also sind 1, 2, 3 die Eigenwerte von 𝐴.

131
Bestimmung der Eigenräume am Beispiel von 𝜆1 = 1:
𝑍 21 (6)
𝑉1 (𝐴) 31
= ker(13 − 𝐴)
𝑋 (4)
⎛ ⎞
−6 −1 5
𝑍 21 (6)
= ker ⎝ 1 0 −1⎠
𝑋 31 (4)
−4 −1 3
⎛ ⎞
1 0 −1
𝑍 12
= ker ⎝−6 −1 5 ⎠
𝑋 31 (4)
−4 −1 3
⎛ ⎞
1 0 −1
𝑍 21 (6)
= ker ⎝0 −1 −1⎠
𝑋 31 (4)
0 −1 −1
⎛ ⎞
1 0 −1
𝑍 32 (−1)
= ker ⎝0 −1 −1⎠
𝑋 31 (4)
0 0 0
⎛ ⎞
1
𝑍 21 (6)
= R −1⎠

𝑋 31 (4)
1
⎛ ⎞
1
und 𝑣1 = ⎝−1⎠ ist ein Eigenvektor zum Eigenwert 1.
1
Übung: Berechnen sie die Eigenräume zu den Eigenwerten 𝜆2 = 2, 𝜆3 = 3.

9.4 Diagonalisierbarkeit
Definition 9.20
Sei 𝑉 ein 𝐾-Vektorraum. Ein Endomorphismus 𝑓 : 𝑉 → 𝑉 heißt diagonalisierbar, wenn
es eine Basis 𝒜 von 𝑉 bestehend aus Eigenvektoren von 𝑓 gibt.
Eine Matrix 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) heißt diagonalisierbar, wenn der Endomorphismus
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
diagonalisierbar ist.
Lemma 9.21. Sei 𝑓 : 𝑉 → 𝑉 diagonalisierbar und 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) eine Basis bestehend
aus Eigenvektoren 𝑣𝑖 zum Eigenwert 𝜆𝑖 . Dann gilt

0
⎛ ⎞
𝜆1
..
Mat𝒜𝒜 (𝑓 ) = ⎝ .
⎜ ⎟

0 𝜆𝑛

132
Beweis.
Klar aus der Definition.

Korollar 9.22. 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) ist genau dann diagonalisierbar, wenn ein 𝑇 ∈ GL𝑛 (𝐾)
existiert, so dass
𝑇 · 𝐴 · 𝑇 −1
eine Diagonalmatrix ist.

Bemerkung. 𝑇 ist die Basiswechselmatrix, die die Standardbasis 𝒜′ von Mat(𝑛, 1; 𝐾) auf
die Basis 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) von Eigenvektoren von (𝐴∙) ∈ End(Mat(𝑛, 1; 𝐾)) überführt.

Beweis.

Mat𝒜𝒜 (𝐴∙) = Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ) · Mat𝒜′ 𝒜′ (𝐴∙) · Mat𝒜𝒜′ (𝑖𝑑𝑉 )


Diagonalmatrix (Lemma 9.21) = 𝑇 · 𝐴 · 𝑇 −1 .

Bemerkung. Nicht alle Endomorphismen sind diagonalisierbar.

Beispiel. Der Jordanblock


𝜆 1 0... 0
⎛ ⎞
.. .. ⎟

⎜ 𝜆 1 . .⎟
⎜ ... ... ⎟

⎜ 0⎟ ⎟
⎝ 𝜆 1⎠
0 𝜆
ist nicht diagonalisierbar.

Bemerkung. Sei 𝑇 die Matrix, so dass

𝑇 ∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
𝑒𝑖 ↦→ 𝑣𝑖

schickt, dann gilt


Mat𝒜𝒜′ (𝑖𝑑𝑉 ) = 𝑇.

Proposition 9.23
Sei 𝑓 ∈ End(𝑉 ) und seien 𝑣1 , . . . , 𝑣𝑘 Eigenvektoren zu paarweise verschiedenen Eigenwer-
ten 𝜆1 , . . . , 𝜆𝑘 ∈ 𝐾. Dann ist {𝑣1 , . . . , 𝑣𝑛 } linear unabhängig.

Beweis.
Beweis durch vollständige Induktion über 𝑘.

IA: 𝑘 = 1. Sei 0 ̸= 𝑣 ein Eigenvektor, dann ist {𝑣1 } linear unabhängig.

133
IS: Seien 𝑣1 , . . . , 𝑣𝑘 Eigenvektoren von 𝑓 zu paarweise verschiedenen Eigenwerten
𝜆1 , . . . , 𝜆𝑘 ∈ 𝐾. Sei die Aussage wahr für (𝑘 − 1) Eigenvektoren, d.h. wir können
annehmen, dass {𝑣1 , . . . , 𝑣𝑘−1 } linear unabhängig ist.
Seien 𝑙1 , . . . , 𝑙𝑘 ∈ 𝐾 und
𝑙1 𝑣1 + · · · + 𝑙𝑘 𝑣𝑘 = 0.
Dann gilt
0 = 𝑓 (𝑙1 𝑣1 + · · · + 𝑙𝑘 𝑣𝑘 )
= 𝑓 (𝑙1 𝑣1 ) + · · · + 𝑓 (𝑙𝑘 𝑣𝑘 )
= 𝑙1 𝜆1 𝑣1 + · · · + 𝑙𝑘 𝜆𝑘 𝑣𝑘 .
Also ist
𝑘−1
∑︁
𝑙𝑘 𝜆𝑘 𝑣𝑘 = − 𝑙𝑖 𝜆𝑖 𝑣𝑖 .
𝑖=1

Andererseits gilt wegen


(︃ 𝑘−1
)︃
∑︁
𝑙𝑘 𝜆𝑘 𝑣𝑘 = 𝜆𝑘 − 𝑙𝑖 𝑣𝑖 .
𝑖=1

Also folgt (𝜆1 − 𝜆𝑘 )𝑙1 𝑣1 + · · · + (𝜆𝑘−1 − 𝜆𝑘 )𝑙𝑘−1 𝑣𝑘−1 = 0 und nach Induktionsvor-
aussetzung gilt
(𝜆𝑖 − 𝜆𝑘 )𝑙𝑖 = 0 ∀1 ≤ 𝑖 ≤ 𝑘 − 1.
Da 𝜆1 , . . . , 𝜆𝑘 paarweise verschieden sind, gilt (𝜆𝑖 − 𝜆𝑘 ) ̸= 0, also 𝑙𝑖 = 0 für alle
1 ≤ 𝑖 ≤ 𝑘 − 1. Dann ist wegen auch 𝑙𝑘 = 0. Also ist {𝑣1 , . . . , 𝑣𝑘 } linear unabhänig.
Korollar 9.24. Sei 𝑉 ein 𝐾-Vektorraum mit dim(𝑉 ) = 𝑛. Hat 𝑓 ∈ End(𝑉 ) 𝑛 paarweise
verschiedene Eigenwerte, so ist 𝑓 diagonalisierbar.
Satz 9.25
Sei 𝑓 ∈ End(𝑉 ), dim(𝑉 ) = 𝑛. Dann sind die folgenden Aussagen äquivalent:
1 𝑓 ist diagonalisierbar
2 𝑋𝑓 (𝑡) zerfällt in Linearfaktoren und für die Multiplizität der Nullstellen 𝑥𝑖 ∈ 𝐾 gilt
𝜇𝑥𝑖 (𝑋𝑓 ) = dim(𝑉𝑥𝑖 (𝑓 )).

Beweis.
1 ⇒ 2 Sei 𝑓 diagonalisierbar, also {𝑣1 , . . . , 𝑣𝑘 } eine Basis von Eigenvektoren. Seien 𝑥𝑖 ∈ 𝐾
die Eigenwerte zu diesen Eigenvektoren. Dann ist 𝑥𝑖 ∈ 𝐾 eine Nullstelle von 𝑋𝑓 (𝑡)
von Multiplizität 𝜇𝑥𝑖 (𝑋𝑓 ) = dim(𝑉𝑥𝑖 (𝑓 )), also
𝑘
∏︁
𝑋𝑓 (𝑡) = (𝑡 − 𝑥𝑖 )dim(𝑉𝑥𝑖 (𝑓 )) ,
𝑖=1

Also gilt 2 .

134
2 ⇒ 1 Es gelte 2 . Seien 𝑥1 , . . . , 𝑥𝑘 die Nullstellen von 𝑋𝑓 (𝑡) und 𝑑𝑖 = dim(𝑉𝑥𝑖 (𝑓 )) die
(𝑖) (𝑖)
Multiplizität der Nullstelle 𝑥𝑖 . Wähle die Basis 𝐵𝑖 = {𝑣1 , . . . , 𝑣𝑑𝑖 } von 𝑉𝑥𝑖 (𝑓 ) für
alle 1 ≤ 𝑖 ≤ 𝑘.
Behauptung:
(𝑖)
𝐵 = 𝐵1 ∪ · · · ∪ 𝐵𝑘 = { 𝑣𝑗 | 1 ≤ 𝑖 ≤ 𝑘, 1 ≤ 𝑗 ≤ 𝑑𝑖 }
ist eine Basis von 𝑉 .
Wenn wir diese Behauptung bewiesen haben, so folgt 1 , da 𝐵 aus Eigenvektoren
besteht.
Zeige Behauptung:
1 𝐵𝑖 sind disjunkt, da
𝑉𝑥𝑖 (𝑓 ) ∩ 𝑉𝑥𝑗 (𝑓 ) = {0} für 𝑥𝑖 ̸= 𝑥𝑗 ,
also folgt
|𝐵| = |𝐵1 | + · · · + |𝐵𝑘 |
= 𝑑1 , . . . , 𝑑 𝑘
= 𝜇𝑥𝑖 (𝑋𝑓 ) + · · · + 𝜇𝑥𝑘 (𝑋𝑓 )
= 𝑛 = dim(𝑉 )
wobei im letzten Schritt verwendet wurde, dass 𝑋𝑓 (𝑡) in Linearfaktoren zerfällt.
2 Zu zeigen: 𝐵 ist linear unabhängig:
(𝑖)
Seien 𝑙𝑗 ∈ 𝐾 mit
𝑑𝑖
𝑘 ∑︁
∑︁ (𝑖) (𝑖)
0= 𝑙𝑗 𝑣𝑗 .
𝑖=1 𝑗=1

Dann gilt
𝑘
∑︁ (𝑖) (𝑖)
𝑤𝑖 = 𝑙𝑗 𝑣𝑗 ∈ 𝑉𝑥𝑖 (𝑓 ) mit 1 ≤ 𝑖 ≤ 𝑘.
𝑗=1

Also sind 𝑤𝑖 Eigenvektoren zu paarweise verschiedenen Eigenwerten. 𝑥1 , . . . , 𝑥𝑘 .


Also ist {𝑤1 , . . . , 𝑤𝑘 } linear unabhängig.
Mit :
𝑘
∑︁
0= 𝑤𝑖 folgt also 𝑤𝑖 = 0 ∀1 ≤ 𝑖 ≤ 𝑘.
𝑖=1
Also folgt
𝑑𝑖
∑︁ (𝑖) (𝑖)
0= 𝑙𝑗 𝑣𝑗 ∀1 ≤ 𝑖 ≤ 𝑘.
𝑗=1
(𝑖) (𝑖)
Da 𝐵𝑖 = {𝑣1 , . . . , 𝑣𝑑𝑖 } eine Basis von 𝑉𝑥𝑖 (𝑓 ) war, also linear unabhängig, gilt
(𝑖)
1≤𝑖≤𝑘 , also ist 𝐵 linear unabhängig.
∀1≤𝑗≤𝑑𝑖
𝑙𝑗 = 0

135
Satz 9.26
Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum. Dann ist 𝑓 ∈ End(𝑉 ) diagonalisierbar
genau dann, wenn
⨁︁𝑘
𝑉 = 𝑉𝜆𝑖 (𝑓 )
𝑖=1
die direkte Summe der Eigenräume von 𝑓 ist, wobei 𝜆1 , . . . , 𝜆𝑘 die Eigenwerte von 𝑓 sind.
Beweis.
Da 𝐵 = 𝐵1 ∪˙ . . . ∪˙ 𝐵𝑘 ist gilt
𝑉 = ℒ(𝐵) = ℒ(𝐵1 ) ⊕ · · · ⊕ ℒ(𝐵𝑘 )
= 𝑉𝑥𝑖 (𝑓 ) ⊕ · · · ⊕ 𝑉𝑥𝑘 (𝑓 ).

Beispiel. ⎛ ⎞
7 1 −5
𝐴 = ⎝−1 1 1 ⎠ ∈ Mat(3, 3; R).
4 1 −2
𝑋𝐴 (𝑡) = (𝑡 − 1)(𝑡 − 2)(𝑡 − 3),
zerfällt also in Linearfaktoren mit den Eigenwerten 1, 2, 3.
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 9
𝑉1 (𝐴) = R −1 = 𝑣1
⎝ ⎠ 𝑉2 (𝐴) = R 0 = 𝑣2
⎝ ⎠ 𝑉3 (𝐴) = R −1⎠ = 𝑣3 .

1 1 7
Da 1, 2, 3 paarweise verschiedene Eigenwerte sind, ist {𝑣1 , 𝑣2 , 𝑣3 } linear unabhängig, also
eine Basis von Mat(3, 1; 𝐾).
Mat(3, 1; 𝐾) = 𝑉1 (𝐴) ⊕ 𝑉2 (𝐴) ⊕ 𝑉3 (𝐴).
⎛ ⎞
1 1 9
𝑇 = (𝑣1 𝑣2 𝑣3 ) = ⎝−1 0 −1⎠
1 1 7
ist invertierbar.
𝑇 ∙ Mat(3, 1; R) → Mat(3, 1; R)
𝑒1 ↦→ 𝑣1
𝑒2 ↦→ 𝑣2
𝑒3 ↦→ 𝑣3
⎛ ⎞
1 0
𝑇 −1 𝐴𝑇 = ⎝ 2 ⎠
0 3
Ausblick: In der Linearen Algebra 2 erfahren wir noch mehr über das charakteristische
Polynom und welche Informationen sie über Endomorphismen enthalten!

136
10 Euklidische Vektorräume
10.1 Bilinearformen
Definition 10.1
Sei 𝑉 ein 𝐾-Vektorraum. Eine Bilinearform auf 𝑉 ist eine 2-Multilinearform.

𝛽 :𝑉 ×𝑉 →𝐾

das heißt,

𝛽(𝑣, ∙) :𝑉 → 𝐾 linear
𝛽(∙, 𝑣) :𝑉 → 𝐾 linear

Beispiel 10.2.

1 Standard Skalarprodukt auf Mat(𝑛, 1; 𝐾)

< ∙, ∙ >: Mat(𝑛, 1; 𝐾) × Mat(𝑛, 1; 𝐾) → 𝐾


(𝑥, 𝑦) ↦→< 𝑥, 𝑦 >
𝑛
∑︁
𝑇
< 𝑥, 𝑦 >:=𝑥 · 𝑦 = 𝑥𝑖 𝑦 𝑖
𝑖=1

ist eine Bilinearform.

2 Für 𝐵 ∈ Mat(𝑛, 𝑛; 𝐾) ist

< ∙, ∙ >𝐵 : Mat(𝑛, 1; 𝐾) × Mat(𝑛, 1; 𝐾) → 𝐾


< 𝑥, 𝑦 >𝐵 :=< 𝑥, ·𝑦 >= 𝑥𝑇 · 𝐵 · 𝑦

ist eine Bilinearform auf Mat(𝑛, 1; 𝐾).

Proposition 10.3
Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum, 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) eine Basis von 𝑉 und
𝛽 : 𝑉 × 𝑉 → 𝐾 eine Bilinearform.
Die Matrix 𝐵 = (𝑏𝑖𝑗 )𝑛𝑖 = 1 𝑗 = 1 ∈ Mat(𝑛, 𝑛; 𝐾), die durch 𝑏𝑖𝑗 = 𝛽(𝑣𝑖 , 𝑣𝑗 ) eindeutig
𝑛
bestimmt ist, heißt Strukturmatrix oder Matrix-Darstellung von 𝛽 bezüglich 𝒜, 𝐵 =
Mat𝒜 (𝛽). Die Strukturmatrix hat folgende Eigenschaften:

1 Die Abbildung
Mat𝒜 : 𝛽 ↦→ Mat𝒜 (𝛽)
ist ein Isomorphismus von Vektorräumen.

2 Für 𝑖𝒜 : Mat(𝑛, 1; 𝐾) → 𝑉 gilt

𝛽(𝑖𝒜 (𝑥), 𝑖𝒜 (𝑦)) = 𝑥𝑇 · Mat𝒜 (𝛽) · 𝑦.

137
3 Sei 𝒜′ eine andere Basis von 𝑉 . Dann gilt

Mat𝒜′ (𝛽) = 𝑇 𝑇 Mat𝒜 (𝛽)𝑇

mit 𝑇 = Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ) ∈ GL𝑛 (𝐾).


Beweis.

1 Aus der Bilinearität von 𝛽 folgt, dass 𝐵 = Mat𝒜 (𝛽) die Bilinearform 𝛽 eindeutig
bestimmt.
Insbesondere wird durch jedes 𝐵 auf diese Weise eine Bilinearform 𝛽𝐵 auf 𝑉
definiert
𝛽𝐵 (𝑣𝑖 , 𝑣𝑗 ) := 𝑏𝑖𝑗 .
Also ist Mat𝐴 : 𝛽 ↦→ Mat𝒜 (𝛽) bijektiv und da die Abbildung linear ist, ein
Vektorraumisomorphismus.

2 Wegen der Bilinearität reicht es 2 für die Vektoren der Standardbasis von
Mat(𝑛, 1; 𝐾) nachzuprüfen.

𝛽(𝑖𝒜 (𝑒𝑖 ), 𝑖𝒜 (𝑒𝑗 )) = 𝛽(𝑣𝑖 , 𝑣𝑗 ) = 𝑏𝑖𝑗 = 𝑒𝑇𝑖 · 𝐵 · 𝑒𝑗 .

3 Zur Erinnerung:

𝑖𝒜 −1 ∘ 𝑖𝒜′ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)

ist genau die Linksmultiplikation mit der Basiswechselmatrix

𝑇 = Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ).

Mit 2 gilt für 𝑥, 𝑦 ∈ Mat(𝑛, 1; 𝐾)

𝑥𝑇 · Mat𝒜′ (𝛽) · 𝑦 = 𝛽(𝑖𝒜′ (𝑥), 𝑖𝒜′ (𝑦))


= 𝛽(𝑖𝒜 ∘ 𝑖𝒜 −1 ∘ 𝑖𝒜′ (𝑥), 𝑖𝒜 ∘ 𝑖𝒜 −1 ∘ 𝑖𝒜′ (𝑦))
= 𝛽(𝑖𝒜 (𝑇 · 𝑥), 𝑖𝒜 (𝑇 · 𝑦))
= (𝑇 · 𝑥)𝑇 · Mat𝒜 (𝛽) · (𝑇 · 𝑦)
= 𝑥𝑇 · 𝑇 𝑇 · Mat𝒜 (𝛽) · 𝑇 · 𝑦
= 𝑥𝑇 · (𝑇 𝑇 · Mat𝒜 (𝛽) · 𝑇 ) · 𝑦.

Beispiel 10.4.

1 Die Matrixdarstellung des Standard-Skalarprodukts auf Mat(𝑛, 1; 𝐾) bezüglich der


Standardbasis 𝒜 = (𝑒1 , . . . , 𝑒𝑛 ) ist 1𝑛 .

< 𝑥.𝑦 >= 𝑥𝑇 · 𝑦 = 𝑥𝑇 · 1𝑛 · 𝑦.

138
2 Die Matrixdarstellung von < ∙, ∙ >𝐵 bezüglich der Standardbasis ist

< 𝑥, 𝐵𝑦 >= 𝑥𝑇 · 𝐵 · 𝑦.

Also ist 𝐵 die Matrixdarstellung von < ∙, ∙ >𝐵 bezüglich der Standardbasis auf
Mat(𝑛, 1; 𝐾).
Definition 10.5
Eine Bilinearform 𝛽 auf 𝑉 heißt
1. symmetrisch, falls 𝛽(𝑣, 𝑤) = 𝛽(𝑤, 𝑣)∀𝑣, 𝑤 ∈ 𝑉 gilt

2. schiefsymmetrisch, falls 𝛽(𝑣, 𝑤) = −𝛽(𝑤, 𝑣)∀𝑣, 𝑤 ∈ 𝑉 gilt.

Lemma 10.6. Sei dim(𝑉 ) = 𝑛. Eine Bilinearform 𝛽 auf 𝑉 ist (schief-)symmetrisch genau
dann, wenn für eine (oder für alle) Basis 𝐴 gilt

𝐵 = Mat𝒜 (𝛽)

ist (schief-)symmetrisch, also


{︃
𝐵𝑇 , 𝛽 symmetrisch
𝐵=
−𝐵 𝑇 , 𝛽 schiefsymmetrisch

Bemerkung. Gilt dies für eine Basis 𝐴, dann auch für alle Basen von 𝑉 .

𝐵 ′ = Mat𝒜′ (𝛽) = 𝑇 𝑇 · Mat𝒜 (𝛽) ·𝑇


⏟ ⏞
=

𝐵 = 𝐵𝑇
(𝐵 ′ )𝑇 = (𝑇 𝑇 𝐵𝑇 )𝑇 = 𝑇 𝑇 𝐵 𝑇 𝑇 = 𝑇 𝑇 𝐵𝑇 = 𝐵 ′ .
Beispiel.

1 Das Standardskalarprodukt auf Mat(𝑛, 1; 𝐾) ist symmetrisch.

Mat𝒜 (<, >) = 1𝑛

2 Die Bilinearform

det : Mat(2, 1; 𝐾) × Mat(2, 1; 𝐾) → 𝐾


(𝑠1 , 𝑠2 ) ↦→ det(𝑠1 𝑠2 )

ist schiefsymmetrisch. (︂ )︂
0 1
Mat𝒜 (det) =
−1 0

139
Definition 10.7
Eine (schief-)symmetrische Bilinearform 𝛽 auf 𝑉 heißt nicht ausgeartet, falls es für alle
0 ̸= 𝑣 ∈ 𝑉 ein 𝑤 ∈ 𝑉 gibt, so dass

𝛽(𝑤, 𝑣) ̸= 0.

Bemerkung. Jede Bilinearform 𝛽 lässt sich in einen symmetrischen und schiefsymmetri-


schen Anteil zerlegen
1 1
𝛽(𝑣, 𝑤) = (𝛽(𝑣, 𝑤) + 𝛽(𝑤, 𝑣)) + (𝛽(𝑣, 𝑤) − 𝛽(𝑤, 𝑣))
2 2
sym
=𝛽 + 𝛽 schief

Für eine allgemeine Bilinearform fordert man, dass es für jedes 0 ̸= 𝑣 ∈ 𝑉 ein 𝑤 ∈ 𝑉
gibt, so dass
𝛽(𝑣, 𝑤) ̸= 0
und ein 𝑤′ ∈ 𝑉 , so dass
𝛽(𝑤′ , 𝑣) ̸= 0.

Beispiel.

1 Das Standardskalarprodukt und die Determinante sind nicht ausgeartet.

2 Allgemeiner: Sei 𝐵 ∈ Mat(𝑛, 𝑛; 𝐾) mit 𝐵 = 𝐵 𝑇 . Dann ist

𝛽 =< ∙, ∙ >𝐵

eine symmetrische Bilinearform.


Falls 𝐵 nicht vollen Rang hat, so ist 𝛽 ausgeartet, denn für 𝑉 ∈ ker(𝐵) gilt

𝛽(𝑣, 𝑤) = 𝛽(𝑤, 𝑣) = < 𝑤, 𝑣 >𝐵 = < 𝑤, 𝐵·𝑣 > = < 𝑤, 0 > = 0 ∀𝑤 ∈ Mat(𝑛, 1; 𝐾).

Lemma 10.8. Eine (schief-)symmetrische Bilinearform 𝛽 : 𝑉 ×𝑉 → 𝐾 ist nicht ausgeartet


genau dann, wenn die Abbildung

𝑙𝛽 :𝑉 → 𝑉 *
𝑣 ↦→ 𝛽(∙, 𝑣)

injektiv ist. Sei 𝑉 endlich dimensional mit Basis 𝐴 und 𝐴* die duale Basis von 𝑉 * . Dann
gilt
Mat𝒜𝒜 (𝑖𝐴 ∘ 𝑖𝐴* −1 ∘ 𝑙𝛽 ) = Mat𝒜𝒜* (𝑙𝛽 ) = Mat𝒜 (𝛽).

Bemerkung. Für eine allgemeine Bilinearform müssen wir die Injektivität von

𝑙𝛽 : 𝑣 → 𝑉 *
𝑣 ↦→ 𝛽(∙, 𝑣)

140
und von

𝑟𝛽 : 𝑣 → 𝑉 *
𝑣 ↦→ 𝛽(𝑣, ∙)

fordern.

Proposition 10.9
Sei 𝛽 eine (schief-)symmetrische Bilinearform auf 𝑉 mit dim(𝑉 ) = 𝑛. Dann ist 𝛽
nicht ausgeartet genau dann, wenn bezüglich einer Basis 𝐴 (und dann aller Basen) für
𝐵 = Mat𝒜 (𝛽) gilt, dass
det(𝐵) ̸= 0.

Beweis.
Nach Lemma 10.8 gilt, dass 𝛽 nicht ausgeartet ist, falls

𝑙𝛽 : 𝑉 → 𝑉 *

injektiv ist und da dim(𝑉 ) = dim(𝑉 * ) gilt, ist 𝑙𝛽 auch bijektiv, genau dann, wenn

𝑖𝐴 ∘ 𝑖𝐴 −1 ∘ 𝑙𝛽 : 𝑉 → 𝑉

bijektiv ist. Das ist genau dann der Fall, wenn

0 ̸= det(𝑖𝐴 ∘ 𝑖𝐴* −1 ∘ 𝑙𝛽 ) = det(Mat𝒜 (𝛽)) = det(𝐵).

Bemerkung. Der Beweis ist analog für allgemeine Bilinearformen.

Definition 10.10
Sei 𝛽 eine symmetrische Bilinearform auf 𝑉 . Seien 𝑓, 𝑔 ∈ End(𝑉 ). Man nennt 𝑓 adjungiert
zu 𝑔, falls
𝛽(𝑣, 𝑔(𝑤)) = 𝛽(𝑓 (𝑣), 𝑤) ∀𝑣, 𝑤 ∈ 𝑉.
Dann ist auch 𝑔 adjungiert zu 𝑓 . 𝑓 heißt selbst adjungiert, wenn es zu 𝑓 adjungiert ist.

Proposition 10.11
Sei 𝛽 eine symmetrische Bilinearform auf 𝑉 , 𝐴 eine Basis von 𝑉 , dim(𝑉 ) = 𝑛. Seien
𝑓, 𝑔 ∈ End(𝑉 ) adjungiert zueinander. Dann gilt für 𝐵 = Mat𝒜 (𝛽)

𝐹 = Mat𝒜𝒜 (𝑓 ), 𝐺 = Mat𝒜𝒜 (𝑔)

𝐵 · 𝐺 = 𝐹 𝑇 · 𝐵.

Beweis.
Der Beweis erfolgt durch Einsetzten in die Definition.

141
Satz 10.12
Sei 𝑉 ein endlich-dimensionaler 𝐾-Vektorraum und 𝛽 eine nicht ausgeartete Bilinearform
auf 𝑉 . Dann gibt es zu 𝑔 ∈ End(𝑉 ) genau einen bezüglich 𝛽 adjungierten Endomorphismus

𝑓 ∈ End(𝑉 ), 𝑓 = 𝑔 ad .

Es gilt
Mat𝒜𝒜 (𝑔 ad ) = (𝐵 · Mat𝒜𝒜 (𝑔) · 𝐵 −1 )𝑇
wobei 𝐵 = Mat𝒜 (𝛽) ist.

Beweis.

𝛽 nicht ausgeartet ⇒ B ist invertierbar


Sei
𝐹 = Mat𝒜𝒜 (𝑓 ) = Mat𝒜𝒜 (𝑔 ad ), 𝐺 = Mat𝒜𝒜 (𝑔),
dann folgt aus
𝐵 · 𝐺 = 𝐹𝑇 · 𝐵
dass
𝐹 𝑇 = 𝐵 · 𝐺 · 𝐵 −1 ,
also

Mat𝒜𝒜 (𝑔 ad ) = 𝐹 = (𝐵 · 𝐺 · 𝐵 −1 )𝑇 = (Mat𝒜 (𝛽) · Mat𝒜𝒜 (𝑔) · Mat𝒜 (𝛽)−1 )𝑇 .

Beispiel. Das Standardskalarprodukt < , > auf Mat(𝑛, 1; 𝐾) ist nicht ausgeartet, da

Mat𝒜 (< >) = 1𝑛 .

Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Sei 𝑔 = (∙) ∈ End(Mat(𝑛, 1; 𝐾))

𝑔 ad = (𝐴∙)ad = (𝐴𝑇 ∙)

Definition 10.13
Sei 𝛽 eine symmetrische Bilinearform auf 𝑉 .

1 𝑣, 𝑤 ∈ 𝑉 heißen orthogonal bezüglich 𝛽, falls 𝛽(𝑣, 𝑤) = 0. Wir schreiben auch


𝑣 ⊥ 𝑤.

2 Sei 𝑈 ⊂ 𝑉 ein Untervektorraum.

𝑈 ⊥ := { 𝑣 ∈ 𝑉 | 𝛽(𝑣, 𝑢) = 0 ∀𝑢 ∈ 𝑈 }

heißt das orthogonale Komplement von 𝑈 .

142
3 Eine Basis {𝑣1 , . . . , 𝑣𝑛 } heißt Orthogonalbasis von 𝑉 bezüglich 𝛽, falls

𝛽(𝑣𝑖 , 𝑣𝑗 ) = 0 ∀𝑖 ̸= 𝑗

{𝑣1 , . . . , 𝑣𝑛 } heißt Orthonormalbasis, falls zusätzlich

𝛽(𝑣𝑖 , 𝑣𝑖 ) = 1 ∀1 ≤ 𝑖 ≤ 𝑛

erfüllt ist.

Bemerkung.

1 Das orthogonale Komplement ist nicht immer ein Komplement zu 𝑈 , das heißt es
kann vorkommen, dass
𝑈 ∩ 𝑈 ⊥ ̸= {0}.

Beispiel.

𝛽 :𝑉 ×𝑉 →𝐾
(𝑣, 𝑤) ↦→ 𝛽(𝑣, 𝑤) = 0

2 Auch für 𝛽 schiefsymmetrisch können wir für 𝑈 ⊂ 𝑉 mit char(𝐾) ̸= 2

𝑈 ⊥ = { 𝑣 ∈ 𝑉 | 𝛽(𝑣, 𝑢) = 0 ∀𝑢 ∈ 𝑈 }

definieren.

Beispiel.
Sei 𝑈 = 𝐾 · 𝑢 mit 0 ̸= 𝑢 ∈ 𝑉.
Dann gilt
𝑈⊥ ⊃ 𝑈 denn 𝛽(𝑢, 𝑢) = −𝛽(𝑢, 𝑢) = 0

Satz 10.14
Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum, 𝛽 eine nicht ausgeartete Bilinearform
und 𝑈 ⊂ 𝑉 ein Untervektorraum.
Dann gilt:

1 dim(𝑈 ) + dim(𝑈 ⊥ ) = dim(𝑉 )

2 (𝑈 ⊥ )⊥ = 𝑈

3 Falls 𝛽 ⃒𝑈 ×𝑈 auch nicht ausgeartet ist, so gilt 𝑉 = 𝑈 ⊕ 𝑈 ⊥ .


Beweis.

143
1 Betrachte

𝑓 : 𝑉 → 𝑈*

𝑣 ↦→ 𝑙𝛽 (𝑣)⃒𝑈

Dieses 𝑓 ist eine lineare Abbildung. Da 𝛽 nicht ausgeartet ist, ist 𝑙𝛽 injektiv, also
auch surjektiv. Also gilt

im(𝑓 ) = 𝑈 *

ker(𝑓 ) = { 𝑣 ∈ 𝑉 | 𝑙𝛽 (𝑣)⃒𝑈 = 0 }
= { 𝑣 ∈ 𝑉 | 𝛽(𝑣, 𝑢) = 0 ∀𝑢 ∈ 𝑈 } = 𝑈 ⊥ .

Also folgt

dim(𝑉 ) = dim(ker(𝑓 )) + dim(im(𝑓 ))


= dim(𝑈 ⊥ ) + dim(𝑈 * )
= dim(𝑈 ⊥ ) + dim(𝑈 ).

2 Es gilt offensichlich nach Definition

𝑈 ⊂ (𝑈 ⊥ )⊥ .

Aus 1 folgt dim(𝑈 ) = dim(𝑈 ⊥ )⊥ , also 𝑈 = (𝑈 ⊥ )⊥ .

3 Sei 𝛽 ⃒𝑈 ×𝑈 nicht ausgeartet. Daraus folgt, dass


𝑈 ∩ 𝑈 ⊥ = {0}.

Also ist
𝑈 ⊕ 𝑈 ⊥ = 𝑈 + 𝑈 ⊥ ⊂ 𝑉,
aber es gilt
dim(𝑈 + 𝑈 ⊥ ) = dim(𝑈 ) + dim(𝑈 ⊥ ) = dim(𝑉 ),
also folgt
𝑈 ⊕ 𝑈 ⊥ = 𝑉.

Beispiel.

det : Mat(2, 1; 𝐾) × Mat(2, 1; 𝐾) → 𝐾


(𝑠1 , 𝑠2 ) ↦→ det(𝑠1 𝑠2 )

Wähle 𝑈 = 𝐾 · 𝑒1 . Dann gilt 𝑈 ⊥ = 𝐾 · 𝑒1 = 𝑈 .

1 dim(𝑈 ) + dim(𝑈 ⊥ ) = 2 = dim(𝑉 ).

144
2 (𝑈 ⊥ )⊥ = 𝐾 · 𝑒1 = 𝑈 .

3 findet keine Anwendung, da ⃒


det ⃒𝑈 ×𝑈 = 0
ausgeartet ist.

Dimensionsformel für ausgeartete Bilinearformen

Lemma 10.15. Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum und 𝑋 ⊂ 𝑉 * ein Unter-
vektorraum. Für
𝑋 0 = { 𝑣 ∈ 𝑉 | 𝜑(𝑢) = 0 ∀𝜑 ∈ 𝑋 } ⊂ 𝑉
gilt
dim(𝑋 0 ) = dim(𝑉 ) − dim(𝑋).

Beweis.
Wähle eine Basis 𝜑1 , . . . 𝜑𝑘 von 𝑋 und definiere die lineare Abbildung

𝑓 : 𝑉 → Mat(𝑘, 1; 𝐾)
⎛ ⎞
𝜑1 (𝑣)
𝑣 ↦→ ⎝ ... ⎠
⎜ ⎟
𝜑𝑘 (𝑣)

Diese Abbildung ist surjektiv, denn wir können die Basis 𝜑1 , . . . , 𝜑𝑘 ergänzen zu einer
Basis (𝐴) = (𝜑1 , . . . , 𝜑𝑛 ) von 𝑉 * .
Wähle nun (𝑣1 , . . . , 𝑣𝑛 ) die zu 𝒜 duale Basis von 𝑉 . Dann gilt für
{︃
𝑒𝑖 1 ≤ 𝑖 ≤ 𝑘
𝑓 (𝑣𝑖 ) = ,
0 𝑖>𝑘

wobei 𝑒𝑖 ein Standardbasisvektor von Mat(𝑘, 1; 𝐾) ist. Also gilt

dim(im(𝑓 )) = 𝑘 = dim(𝑋)

und

ker(𝑓 ) = { 𝑣 ∈ 𝑉 | 𝜑𝑖 (𝑣) = 0 ∀1 ≤ 𝑖 ≤ 𝑘 }
= { 𝑣 ∈ 𝑉 | 𝜑(𝑣) = 0 ∀𝜑 ∈ 𝑋 }
= 𝑋0

Also folgt

dim(𝑉 ) = dim(im(𝑓 )) + dim(ker(𝑓 )) = dim(𝑋) + dim(𝑋 0 ).

145
Proposition 10.16
Sei 𝑉 ein endlich-dimensionaler 𝐾-Vektorraum, 𝛽 eine Bilinearform und 𝑈 ⊂ 𝑉 ein
Untervektorraum. Dann gilt

dim(𝑈 ) + dim(𝑈 ⊥ ) = dim(𝑉 ) + dim(𝑈 ∩ 𝑉 ⊥ ).

Beweis.
Betrachte

𝑙𝛽 ⃒𝑈 : 𝑈 → 𝑉 *

𝑢 ↦→ 𝛽(𝑢, ∙).

Sei 𝑋 = im(𝑙𝛽 ) ⊂ 𝑉 * . Dann gilt

𝑋 0 = { 𝑣 ∈ 𝑉 | 𝜑(𝑣) = 0 ∀𝜑 ∈ 𝑋 }
= { 𝑣 ∈ 𝑉 | (𝑙𝛽 (𝑢))(𝑣) = 𝛽(𝑢, 𝑣) = 0 ∀𝑢 ∈ 𝑈 }
= 𝑈 ⊥.

Nach Lemma 10.15 folgt

dim(𝑈 ⊥ ) = dim(𝑉 ) − dim(im(𝑙𝛽 ⃒𝑈 ))


⃒ ⃒
dim(im(𝑙𝛽 ⃒𝑈 )) = dim(𝑈 ) − dim(ker(𝑙𝛽 ⃒𝑈 ))

ker(𝑙𝛽 ⃒𝑈 ) = { 𝑢 ∈ 𝑈 | 𝑙𝛽 (𝑢) = 0 }
= { 𝑢 ∈ 𝑈 | 𝛽(𝑢, 𝑣) = 0 ∀𝑣 ∈ 𝑉 }
=𝑉⊥∩𝑈

dim(𝑈 ⊥ ) = dim(𝑉 ) − dim(im(𝑙𝛽 ⃒𝑈 ))




= dim(𝑉 ) − dim(𝑈 ) + dim(ker(𝑙𝛽 ⃒𝑈 ))
= dim(𝑉 ) − dim(𝑈 ) + dim(𝑉 ⊥ ∩ 𝑈 ).

10.2 Euklidische Vektorräume


𝑉 sei ein R-Vektorraum.

Definition 10.17
Eine symmetrische Bilinearform 𝛽 : 𝑉 × 𝑉 → R heißt positiv definit, falls 𝛽(𝑣, 𝑣) > 0
für alle 𝑣 ∈ 𝑉 ∖ {0}. Eine positiv definite symmetrische Bilinearform nennt man auch ein
Skalarprodukt. Wir schreiben 𝛽 > 0. Eine symmetrische Matrix 𝐵 ∈ Mat(𝑛, 𝑛; R) heißt
positiv definit (𝐵 > 0), wenn 𝑥𝑇 · 𝐵 · 𝑥 > 0 für alle 𝑥 ∈ Mat(𝑛, 1; R) ∖ {0}.

146
Beispiel 10.18.

1 Das Standardskalarprodukt auf Mat(𝑛, 1; R)


𝑛
∑︁
𝑇
< 𝑥, 𝑥 >= 𝑥 · 𝑥 = 𝑥2𝑖 > 0
𝑖=1
⎛ ⎞
𝑥1
⎜ .. ⎟
für alle 0 ̸= 𝑥 = ⎝ . ⎠ ∈ Mat(𝑛, 1; R).
𝑥𝑛

2 Vektorraum 𝐶 0 ([0, 1], R) der stetigen Abbildungen vom Intervall [0, 1] nach R. Die
Bilinearform ∫︁ 1
𝛽(𝑓, 𝑔) := 𝑓 (𝑥) · 𝑔(𝑥)𝑑𝑥
0
ist positiv definit.

Satz 10.19 (Cauchy-Schwarz-Ungleichung)


Sei 𝛽 ein Skalarprodukt auf 𝑉 . Dann gilt für alle 𝑢, 𝑣 ∈ 𝑉

𝛽(𝑢, 𝑣)2 ≤ 𝛽(𝑢, 𝑢)𝛽(𝑣, 𝑣)

mit Gleichheit genau dann, wenn {𝑢, 𝑣} linear abhängig ist, das heißt ∃𝑟 ∈ R mit 𝑢 = 𝑟 · 𝑣
oder 𝑣 = 𝑟 · 𝑢.

Beweis.
Da 𝛽 positiv definit ist gilt für alle 𝑢, 𝑣 ∈ 𝑉 und alle 𝑘 ∈ R

0 ≤ 𝛽(𝑢 − 𝑘𝑣, 𝑢 − 𝑘𝑣) = 𝛽(𝑢, 𝑢) − 2𝑘𝛽(𝑢, 𝑣) + 𝑘 2 𝛽(𝑣, 𝑣).

1. Fall 𝑣 = 0. Dann ist die Ungleichung automatisch erfüllt.

2. Fall 𝑣 ̸= 0. Setze 𝑘 = 𝛽(𝑢,𝑣)


𝛽(𝑣,𝑣)
. Dann erhalten wir

𝛽(𝑢, 𝑣) 𝛽(𝑢, 𝑣)2


0 ≤ 𝛽(𝑢, 𝑢) − 2 𝛽(𝑢, 𝑣) + · 𝛽(𝑣, 𝑣)
𝛽(𝑣, 𝑣) 𝛽(𝑣, 𝑣)2
𝛽(𝑢, 𝑣)2 𝛽(𝑢, 𝑣)2
= 𝛽(𝑢, 𝑢) − 2 +
𝛽(𝑣, 𝑣) 𝛽(𝑣, 𝑣)
2
𝛽(𝑢, 𝑣)
= 𝛽(𝑢, 𝑢) −
𝛽(𝑣, 𝑣)

also folgt mit 𝛽(𝑣, 𝑣) > 0

0 ≤ 𝛽(𝑢, 𝑢) · 𝛽(𝑣, 𝑣) − (𝛽(𝑢, 𝑣))2

147
Korollar 10.20. Für alle 𝑢, 𝑣 ∈ 𝑉 ∖ {0} gilt
𝛽(𝑢, 𝑣)
−1 ≤ √︀ ≤ 1.
𝛽(𝑢, 𝑢)𝛽(𝑣, 𝑣)

Also existiert genau ein 𝜙 ∈ [0, 𝜋], so dass


𝛽(𝑢, 𝑣)
cos 𝜙 = √︀ .
𝛽(𝑢, 𝑢)𝛽(𝑣, 𝑣)
Dieses 𝜙 ist der von 𝑢, 𝑣 eingeschlossene Winkel. Es gilt
𝑢, 𝑣 linear abhängig ⇔ 𝜙 ∈ {0, 𝜋}
𝑢, 𝑣 orthogonal ⇔ 𝜙 = 𝜋2 ,

da 𝛽(𝑢, 𝑣) = cos(𝜙) ·
√︀
𝛽(𝑢, 𝑢)𝛽(𝑣, 𝑣).

Definition 10.21
Eine Norm auf 𝑉 ist eine Abbildung

𝑁 : 𝑉 → R≥0

für die gilt:


1 für alle 𝑣 ∈ 𝑉 : 𝑁 (𝑣) = 0 ⇔ 𝑣 = 0

2 𝑁 (𝑘𝑣) = |𝑘| · 𝑁 (𝑣) für alle 𝑣 ∈ 𝑉, 𝑘 ∈ R

3 𝑁 (𝑢 + 𝑣) ≤ 𝑁 (𝑢) + 𝑁 (𝑣) für alle 𝑢, 𝑣 ∈ 𝑉 (Dreiecksungleichung).

Beispiel.

1 Norm auf Mat(𝑛, 1; R)



‖𝑣‖ = < 𝑣, 𝑣 >

2 𝑙1 -Norm auf R𝑛
‖(𝑣1 , . . . , 𝑣𝑛 )‖1 = |𝑣1 | + · · · + |𝑣𝑛 |

3 𝑙∞ -Norm auf R𝑛
‖(𝑣1 , . . . , 𝑣𝑛 )‖∞ = max(|𝑣1 |, . . . , |𝑣𝑛 |)
Die Norm ist bestimmt durch die Menge der Vektoren von Norm

𝑁 (𝑣) ≤ 1 = Einheitsball bezüglich der Norm 𝑁 .

Der Einheitsball ist eine konvexe Menge.

148
Proposition 10.22
Sei 𝑉 ein R-Vektorraum mit Skalarprodukt 𝛽. Dann ist

‖∙‖ : 𝑉 → R≥0
√︀
𝑣 ↦→ ‖𝑣‖ := 𝛽(𝑣, 𝑣)

eine Norm. ‖𝑣‖ wird auch Länge von 𝑣 genannt.


Beweis.
1 und 2 sind klar.
3 Sei 𝑢, 𝑣 ∈ 𝑉 .

‖𝑢 + 𝑣‖2 = 𝛽(𝑢 + 𝑣, 𝑢 + 𝑣)
= 𝛽(𝑢, 𝑢) + 𝛽(𝑣, 𝑣) + 2𝛽(𝑢, 𝑣)
= ‖𝑢‖2 + ‖𝑣‖2 + 2𝛽(𝑢, 𝑣)
≤ ‖𝑢‖2 + ‖𝑣‖2 + 2 𝛽(𝑢, 𝑢)𝛽(𝑣, 𝑣)
√︀

= ‖𝑢‖2 + ‖𝑣‖2 + 2 ‖𝑢‖ · ‖𝑣‖


= (‖𝑢‖ + ‖𝑣‖)2

Definition 10.23
Eine Metrik auf einer Menge 𝑋 ist die Abbildung

𝑑 : 𝑋 × 𝑋 → R≥0 ,

die folgende Eigenschaften für alle 𝑥, 𝑦 ∈ 𝑋 erfüllt:


1 𝑑(𝑥, 𝑦) = 0 ⇔ 𝑥 = 𝑦

2 𝑑(𝑥, 𝑦) = 𝑑(𝑦, 𝑥)

3 𝑑(𝑥, 𝑧) ≤ 𝑑(𝑥, 𝑦) + 𝑑(𝑦, 𝑧) (Dreiecksungleichung).

Korollar 10.24. Sei 𝑉 ein R-Vektorraum mit Skalarprodukt 𝛽. Dann definiert

𝑑(𝑢, 𝑣) := ‖𝑢 − 𝑣‖

eine Metrik auf 𝑉 .


Beispiel. 𝑅𝑛 mit Standardskalarprodukt
𝑛
∑︁
< (𝑥1 , . . . , 𝑥𝑛 ), (𝑦1 , . . . , 𝑦𝑛 ) > = 𝑥 𝑖 𝑦𝑖
𝑖=1

Die Norm ‖𝑥‖ entspricht der Länge des Vektors 𝑥, also der Abstand von 𝑥 zum Nullpunkt
0 ∈ R𝑛 .
Für R2 :
√︀
‖𝑥‖ = 𝑥21 + 𝑥22

149
𝑥

Der von 𝑥, 𝑦 ∈ R𝑛 eingeschlossene Winkel 0 ≤ 𝜙 ≤ 𝜋 ist der kleinere der beiden Winkel
zwischen den Strahlen R𝑥 und R𝑦, die durch 0 verlaufen.

𝜑
𝑦
0

Definition 10.25
Ein Euklidischer Vektorraum ist ein Paar (𝑉, 𝛽) bestehend aus einem endlich
dimensionalen R-Vektorraum 𝑉 und einem Skalarprodukt 𝛽.

Satz 10.26 (Gram-Schmidtsches Orthogonalisierungsverfahren)


Sei (𝑉, 𝛽) ein Euklidischer Vektorraum. Dann gilt
1 𝑉 besitzt eine Orthogonalbasis.
2 Aus einer Basis {𝑣1 , . . . , 𝑣𝑛 } erhält man eine Orthogonalbasis {𝑢1 , . . . , 𝑢𝑛 }
𝑢1 = 𝑣1
𝛽(𝑢1 , 𝑣2 )
𝑢2 = 𝑣2 − 𝑢1
𝛽(𝑢1 , 𝑢1 )
..
.
𝑛−1
∑︁ 𝛽(𝑢𝑖 , 𝑣𝑛 )
𝑢𝑛 = 𝑣𝑛 − 𝑢𝑖
𝑖=1
𝛽(𝑢𝑖 , 𝑢𝑖 )

3 Aus einer Orthogonalbasis {𝑢1 , . . . , 𝑢𝑛 } erhält man eine Orthonormalbasis durch


{𝑤1 , . . . , 𝑤𝑛 } mit
𝑢𝑖 𝑢𝑖
𝑤𝑖 = = √︀
‖𝑢𝑖 ‖ 𝛽(𝑢𝑖 , 𝑢𝑖 )

4 Sei {𝑢1 , . . . , 𝑢𝑛 } eine Orthogonalbasis von 𝑉 , so gilt für alle 𝑣 ∈ 𝑉 :


𝑛
∑︁ 𝛽(𝑢𝑖 , 𝑣)
𝑣= 𝑢𝑖
𝑖=1
𝛽(𝑢𝑖 , 𝑢𝑖 )

150
Beweis.
1 folgt aus 2 , 3 folgt aus 2 und

𝑢𝑖 𝑢𝑖 𝛽(𝑢𝑖 , 𝑢𝑖 )
𝛽(𝑤𝑖 , 𝑤𝑖 ) = 𝛽( , )= = 1.
‖𝑢𝑖 ‖ ‖𝑢𝑖 ‖ ‖𝑢𝑖 ‖2

Zeige nun 2 durch vollständige Induktion. Sei {𝑣1 , . . . , 𝑣𝑛 } eine Basis von 𝑉 .

IA: 𝑢1 ist eine Orthogonalbasis von ℒ({𝑢1 }).

IS: Wir nehmen an {𝑢1 , . . . , 𝑢𝑘−1 } ist eine Orthogonalbasis von ℒ({𝑣1 , . . . , 𝑣𝑘−1 }).
Definiere
𝑘−1
∑︁ 𝛽(𝑢𝑖 , 𝑣𝑘 )
𝑢𝑘 = 𝑣𝑘 − 𝑢𝑖 .
𝑖=1
𝛽(𝑢𝑖 , 𝑢𝑖 )
Dann gilt
𝑘−1
∑︁ 𝛽(𝑢𝑖 , 𝑣𝑘 )
𝛽(𝑢𝑗 , 𝑢𝑘 ) = 𝛽(𝑢𝑗 , 𝑣𝑘 ) − 𝛽(𝑢𝑖 , 𝑢𝑗 )
𝑖=1
𝛽(𝑢𝑖 , 𝑢𝑖 )
𝛽(𝑢𝑗 , 𝑣𝑘 )
= 𝛽(𝑢𝑗 , 𝑣𝑘 ) − 𝛽(𝑢𝑗 , 𝑢𝑗 )
𝛽(𝑢𝑗 , 𝑢𝑗 )
=0

nach der Induktionsvoraussetzung gilt für alle 1 ≤ 𝑖 ̸= 𝑗 ≤ 𝑘 − 1

𝛽(𝑢𝑖 , 𝑢𝑗 ) = 0

und nun
𝛽(𝑢𝑗 , 𝑢𝑘 ) = 0 ∀ 1 ≤ 𝑗 ≤ 𝑘 − 1.
Da 𝑣𝑘 linear unabhängig von {𝑣1 , . . . , 𝑣𝑘−1 } ist, gilt

𝑣𝑘 ∈
/ ℒ({𝑣1 , . . . , 𝑣𝑘−1 }) = ℒ({𝑢1 , . . . , 𝑢𝑘−1 }),

also ist 𝑣𝑘 linear unabhängig von {𝑢1 , . . . , 𝑢𝑘−1 }. Also ist auch 𝑢𝑘 linear unabhängig
von {𝑢1 , . . . , 𝑢𝑘−1 }. Also ist {𝑢1 , . . . , 𝑢𝑘 } eine Orthogonalbasis von

ℒ({𝑢1 , . . . , 𝑢𝑘 }) = ℒ({𝑣1 , . . . , 𝑣𝑘 }).

4 Da 𝑣 ∈ 𝑉 gilt 𝑣 = 𝑙𝑖 𝑢𝑖 . Wegen der Orthogonalität gilt


∑︀𝑛
𝑖=1

𝛽(𝑢𝑖 , 𝑣) = 𝑙𝑖 · 𝛽(𝑢𝑖 , 𝑢𝑖 ),

also
𝛽(𝑢𝑖 , 𝑣)
𝑙𝑖 =
𝛽(𝑢𝑖 , 𝑢𝑖 )

151
Korollar 10.27 (Matrix Version). Sei 𝐵 ∈ Mat(𝑛, 𝑛; R) eine positiv definite symmetrische
Matrix, also 𝐵 = 𝐵 𝑇 , 𝐵 > 0. Dann existiert eine obere Dreiecksmatrix 𝑇 ∈ GL𝑛 (R) mit

𝑇 𝑇 · 𝐵 · 𝑇 = 1𝑛 .

Insbesondere gilt det(𝐵) > 0.

Beweis.
Wende Satz 10.26 auf 𝑉 = Mat(𝑛, 1; R) mit dem Skalarprodukt

< 𝑥, 𝑦 >𝐵 = 𝑥𝑇 · 𝐵 · 𝑦.

Starte mit der Standardbasis 𝐴 = (𝑒1 , . . . , 𝑒𝑛 ) und wende das Gram-Schmidt Verfahren
an
𝐴′ = {𝑢1 , . . . , 𝑢𝑛 } ist eine Orthogonalbasis bezüglich < ∙, ∙ >𝐵 .
Dann haben die 𝑢𝑖 die Eigenschaft, dass (𝑢𝑖 )𝑗 = 0 für alle 𝑗 > 𝑖, das heißt

𝑇 = Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ) = (𝑢𝑖 . . . 𝑢𝑛 ) ∈ GL𝑛 (R)

ist eine obere Dreiecksmatrix. Nun gilt 𝛽(𝑢𝑖 , 𝑢𝑗 ) = 𝛿𝑖𝑗 . Also

1𝑛 = Mat𝒜′ (<, >𝐵 ) = 𝑇 𝑇 · 𝐵 · 𝑇


und

1 = det(1𝑛 )
= det(𝑇 𝑇 · 𝐵 · 𝑇 )
= det(𝑇 𝑇 ) · det(𝐵) · det(𝑇 )
= det(𝑇 )2 · det(𝐵)

also det(𝐵) > 0.

Proposition 10.28
Sei (𝑉, 𝛽) ein Euklidischer Vektorraum. Sei 𝑈 ⊂ 𝑉 ein Untervektorraum und {𝑢1 , . . . , 𝑢𝑘 }
eine Orthogonalbasis von 𝑈 . Dann gilt

1 𝑉 = 𝑈 ⊕ 𝑈 ⊥ , das heißt jedes 𝑣 ∈ 𝑉 kann eindeutig als 𝑣 = 𝑢 + 𝑤 geschrieben


werden mit 𝑢 ∈ 𝑈, 𝑤 ∈ 𝑈 ⊥ .

2 Die Abbildung

𝜋𝑈 : 𝑉 → 𝑈
𝑣 ↦→ 𝑢

152
erfüllt
𝑘
∑︁ 𝛽(𝑢𝑖 , 𝑣)
𝜋𝑈 (𝑣) = 𝑢𝑖 .
𝑖=1
𝛽(𝑢𝑖 , 𝑢𝑖 )
Sie ist linear und eine Projektion, das heißt

𝜋 𝑈 ∘ 𝜋𝑈 = 𝜋 𝑈 .

Man nennt sie die orthogonale Projektion auf 𝑈 . Es gilt

𝜋𝑈 ⊥ = 𝑖𝑑𝑉 − 𝜋𝑈 .

3 Für 𝑣 ∈ 𝑉 ist 𝜋𝑈 (𝑣) ∈ 𝑈 der Vektor in 𝑈 , an dem die Abbildung

𝑢 ↦→ ‖𝑣 − 𝑢‖

ihr Minimum annimmt.

Beweis.

1 Da 𝛽 positiv definit ist, gilt


𝑈 ∩ 𝑈 ⊥ = {0},
denn wäre 𝑣 ∈ 𝑈 ∩ 𝑈 ⊥ , dann würde folgen

𝛽(𝑣, 𝑣) = 0 → 𝑣 = 0.

Also 𝑈 + 𝑈 ⊥ = 𝑈 ⊕ 𝑈 ⊥ . Betrachte 𝜋𝑈 und 𝑖𝑑𝑉 − 𝜋𝑈


𝑘
∑︁ 𝛽(𝑢𝑗 , 𝑢𝑖 )𝛽(𝑢𝑖 , 𝑣)
𝛽(𝑢𝑗 , (𝑖𝑑𝑉 − 𝜋𝑈 )(𝑣)) = 𝛽(𝑢𝑗 , 𝑣) −
𝑖=1
𝛽(𝑢𝑖 , 𝑢𝑖 )
= 𝛽(𝑢𝑗 , 𝑣) − 𝛽(𝑢𝑗 , 𝑣)
=0 für alle 1 ≤ 𝑗 ≤ 𝑘.

Also folgt
(𝑖𝑑𝑉 − 𝜋𝑈 )(𝑣) ∈ 𝑈 ⊥ für alle 𝑣 ∈ 𝑉.
Also
𝑣 = 𝑖𝑑𝑉 (𝑣) = 𝜋𝑈 (𝑣) − (𝑖𝑑𝑉 − 𝜋𝑈 )(𝑣)

𝑈 𝑈⊥

also
𝑉 = 𝑈 + 𝑈⊥ = 𝑈 ⊕ 𝑈⊥

2 𝜋𝑈 ist linear.
𝜋𝑈 ∘ 𝜋 𝑈 = 𝜋𝑈
ist, rechnet man leicht unter Verwendung der Orthogonalität von {𝑢1 , . . . , 𝑢𝑘 } nach.

153
3
‖𝑣 − 𝑢‖2 = ‖𝑣 − 𝜋𝑈 (𝑣) + 𝜋𝑈 (𝑣) − 𝑢‖2
= ‖𝑣 − 𝜋𝑈 (𝑣)‖2 + ‖𝜋𝑈 (𝑣) − 𝑢‖2 + 2𝛽(𝑣 − 𝜋𝑈 (𝑣), 𝜋𝑈 (𝑣) − 𝑢)


𝑈⊥ 𝑈
2 2
= ‖𝑣 − 𝜋𝑈 (𝑣)‖ + ‖𝜋𝑈 (𝑣) − 𝑢‖ .

Da ‖𝑥‖2 ≥ 0 und ‖𝑥‖ = 0 ⇔ 𝑥 = 0, folgt


‖𝑣 − 𝑢‖2 ≥ ‖𝑣 − 𝜋𝑈 (𝑣)‖2
mit Gleichheit genau dann, wenn
𝜋𝑈 (𝑣) = 𝑈.

Beispiel. Sei 𝑈 ⊂ R3 ein zwei dimensionaler Unterraum (Ebene). Damit ist 𝑈 ⊥


eindimensional, also 𝑈 ⊥ = R · 𝑥 mit 𝑥 ∈ R3 ∖ {0} und 𝑥 orthogonal zu 𝑈 .
< 𝑥, 𝑣 >
𝜋𝑈 ⊥ (𝑣) = 𝑥
< 𝑥.𝑥 >
< 𝑥, 𝑣 >
𝜋𝑈 (𝑣) = (𝑖𝑑R3 − 𝜋𝑈 ⊥ )(𝑣) = 𝑣 − 𝑥
< 𝑥.𝑥 >
Wir wollen nun zeigen, dass selbstadjungierte Endomorphismen auf Euklidischen
Vektorräumen und symmetrische Matrizen diagonalisierbar sind.
Proposition 10.29
Sei 𝐴 ∈ Mat(𝑛, 𝑛; R) symmetrisch, dann hat 𝐴 Eigenwerte.
Beweis.
Betrachte 𝐴 als Matrix in Mat(𝑛, 𝑛; C). Da C algebraisch abgeschlossen ist, hat das
charakteristische Polynom von 𝐴 eine komplexe Nullstelle 𝜆 ∈ C, das heißt
∃𝑥 ∈ Mat(𝑛, 1; C) mit
𝐴 · 𝑥 = 𝜆𝑥
(also 𝐴 · 𝑥 = 𝜆 · 𝑥, also 𝐴 · 𝑥 = 𝜆 · 𝑥).
Nun wollen wir zeigen, dass 𝜆 ∈ R sein muss.
𝐴·𝑥=𝜆𝑥
𝜆𝑥𝑇 · 𝑥 = 𝑥𝑇 · 𝜆𝑥 = (𝑥𝑇 · 𝐴) · 𝑥
𝐴=𝐴𝑇
= (𝐴𝑇 · 𝑥)𝑇 · 𝑥 = (𝐴 · 𝑥)𝑇 · 𝑥
= 𝜆 · 𝑥𝑇 · 𝑥
Da 𝑥 ̸= 0, folgt also mit
𝑛
∑︁
𝑥𝑇 · 𝑥 = |𝑥𝑖 |2 > 0.
𝑖=1

Also ist 𝜆 = 𝜆, also 𝜆 ∈ R. Also hat 𝐴 einen (reellen) Eigenwert.

154
Proposition 10.30
Sei 𝑉 ein 𝐾-Vektorraum, 𝛽 eine symmetrische Bilinearform, 𝑓 ∈ End(𝑉 )
selbstadjungiert bezüglich 𝛽. Dann sind die Eigenräume von 𝑓 zu unterschiedlichen
Eigenwerten orthogonal.

Beweis.
Zur Erinnerung: 𝑓 ist selbstadjungiert bezüglich 𝛽, falls

𝛽(𝑣, 𝑓 (𝑤)) = 𝛽(𝑓 (𝑣), 𝑤) ∀ 𝑣, 𝑤 ∈ 𝑉.

Seien 𝜆1 ̸= 𝜆2 Eigenwerte von 𝑓 mit Eigenvektoren 𝑣1 , 𝑣2 . Dann gilt

𝜆1 𝛽(𝑣1 , 𝑣2 ) = 𝛽(𝜆1 𝑣1 , 𝑣2 ) = 𝛽(𝑓 (𝑣1 ), 𝑣2 ) = 𝛽(𝑣1 , 𝑓 (𝑣2 ))


= 𝛽(𝑣1 , 𝜆2 𝑣2 ) = 𝜆2 𝛽(𝑣1 , 𝑣2 ).

Also folgt
(𝜆1 − 𝜆2 )𝛽(𝑣1 , 𝑣2 ) = 0,
und da 𝜆1 ̸= 𝜆2 , ist 𝜆1 − 𝜆2 ̸= 0, also 𝛽(𝑣1 , 𝑣2 ) = 0.

Proposition 10.31
Sei 𝑉 ein 𝐾-Vektorraum, 𝛽 eine symmetrische Bilinearform, 𝑓 ∈ End(𝑉 ) selbstadjungiert
bezüglich 𝛽. Falls 𝑈 ⊂ 𝑉 ein 𝑓 -invarianter Untervektorraum ist (also 𝑓 (𝑈 ) ⊂ 𝑈 ), so gilt
dies auch für 𝑈 ⊥ (also 𝑓 (𝑈 ⊥ ) ⊂ 𝑈 ⊥ ).

Beweis.
Sei 𝑤 ∈ 𝑈 ⊥ . Dann gilt ∀𝑢 ∈ 𝑈

0 = 𝛽(𝑓 (𝑈 ), 𝑤) = 𝛽(𝑈, 𝑓 (𝑤)).

Also folgt 𝑓 (𝑤) ∈ 𝑈 ⊥ .

Satz 10.32
Sei (𝑉, 𝛽) ein Euklidischer Vektorraum, 𝑓 ∈ End(𝑉 ) selbstadjungiert bezüglich 𝛽. Dann
besitzt 𝑉 eine Orthonormalbasis aus Eigenvektoren.

Beweis.
Nach Satz 10.26 hat 𝑉 eine Orthonormalbasis. Sei 𝐹 die Matrixdarstellung von 𝑓
bezüglich dieser Basis. Dann ist 𝐹 symmetrisch (da 𝑓 selbstadjungiert ist), also nach
Proposition 10.29 hat 𝐹 mindestens einen reellen Eigenwert 𝜆 ∈ R. Dieser ist auch ein
Eigenwert von 𝑓 . Betrachte den Eigenraum 𝑉𝜆 (𝑓 ) ⊂ 𝑉 . Dann gilt

𝑉 = 𝑉𝜆 (𝑓 ) ⊕ 𝑉𝜆 (𝑓 )⊥ .

Da 𝑉𝜆 (𝑓 ) ein 𝑓 -invarianter Untervektorraum ist, ist nach Proposition 10.31 auch

𝑊 := 𝑉𝜆 (𝑓 )⊥

155
ein 𝑓 -invarianter Unterraum.
Falls 𝑊 ̸= 0, dann ist ⃒
𝛽 ⃒𝑊 ×𝑊 : 𝑊 × 𝑊 → R
eine positiv definite symmetrische Bilinearform und

𝑓 ⃒𝑊 : 𝑊 → 𝑊

ist selbstadjungiert. Also wiederholen wir das Vorgehen, bis wir schließlich eine Zerlegung
erhalten:
𝑉 = 𝑉𝜆1 (𝑓 ) ⊕ 𝑉𝜆2 (𝑓 ) ⊕ · · · ⊕ 𝑉𝜆𝑘 (𝑓 )
von 𝑉 ist die direkte Summe der Eigenräume. Diese Summanden sind paarweise
orthogonal, so dass wir in jedem Summanden eine Orthonormalbasis wählen können,
da ⃒
(𝑉𝜆𝑖 (𝑓 ), 𝛽 ⃒𝑉 (𝑓 )×𝑉 (𝑓 ) )
𝜆𝑖 𝜆𝑖

ein euklidischer Vektorraum ist. Die Vereinigung dieser Orthonormalbasen ist dann eine
Orthonormalbasis von 𝑉 .

Definition 10.33
Eine Matrix 𝑃 ∈ Mat(𝑛, 𝑛; R) heißt orthogonal, falls

𝑃 𝑇 · 𝑃 = 1𝑛 .

Die Menge
O𝑛 (R) = { 𝑃 ∈ Mat(𝑛, 𝑛; R) | 𝑃 𝑇 · 𝑃 = 1𝑛 } ⊂ GL𝑛 (R)
ist eine Untergruppe von GL𝑛 (R). Man nenn sie die orthogonale Gruppe.

Lemma 10.34. Sei (𝑉, 𝛽) ein Euklidischer Vektorraum, dim(𝑉 ) = 𝑛,


𝐴 eine Orthonormalbasis von 𝑉 und 𝐵 eine Basis von 𝑉 .
Dann ist
𝐵 ist eine Orthonormalbasis von 𝑉 ⇔ Mat𝒜ℬ (𝑖𝑑𝑉 ) ∈ O𝑛 (R)

Beweis.

Matℬ (𝛽) = (Mat𝒜ℬ (𝑖𝑑𝑉 ))𝑇 · Mat𝒜 (𝛽) · Mat𝒜ℬ (𝑖𝑑𝑉 ),


⏟ ⏞
=

1𝑛
also Matℬ (𝛽) = 1𝑛 genau dann, wenn

1𝑛 = Mat𝒜ℬ (𝑖𝑑𝑉 )𝑇 · Mat𝒜ℬ (𝑖𝑑𝑉 ).

156
Bemerkung. Sei 𝐴 = (𝑣1 , . . . , 𝑣𝑛 )
(Mat𝒜 (𝛽))𝑖 𝑗 = 𝛽(𝑣𝑖 , 𝑣𝑗 )
𝐴 Orthonormalbasis heißt
𝛽(𝑣𝑖 , 𝑣𝑗 ) = 0 für 𝑖 ̸= 𝑗

𝛽(𝑣𝑖 , 𝑣𝑖 ) = 1
Korollar 10.35. Sei 𝐴 ∈ Mat(𝑛, 𝑛; R) symmetrisch. Dann gibt es ein 𝑃 ∈ O𝑛 (R), so dass
𝑃 −1 · 𝐴 · 𝑃
diagonal ist.
Beweis.
Wende Satz 10.32 auf (𝑉, 𝛽) = (Mat(𝑛, 1; R), <, > ) an.
𝑓 = 𝐴∙ ∈ End(𝑉 )
selbstadjungiert, da 𝐴 = 𝐴𝑇 . Dann gibt es eine Orthonormalbasis 𝐵 von Mat(𝑛, 1; R)
bestehend aus Eigenvektoren von 𝑓 .
𝑃 = Mat𝒜ℬ (𝑖𝑑𝑉 )
wobei 𝐴 = Standardbasis von Mat(𝑛, 1; R). Dann ist
Matℬℬ (𝑓 ) = 𝑃 −1 · 𝐴 · 𝑃
diagonal, aber 𝑃 bildet die Orthonormalbasis 𝐴 auf die Orthonormalbasis 𝐵 ab,
also 𝑃 ∈ O𝑛 (R).
Korollar 10.36. Sei (𝑉, 𝛽) ein Euklidischer Vektorraum und 𝛽˜ eine symmetrische
Bilinearform. Dann existiert eine Basis von 𝑉 , die gleichzeitig die Orthonormalbasis von
𝛽 und eine Orthogonalbasis von 𝛽˜ ist.
Beweis.
Sei 𝐴 = (𝑣1 , . . . , 𝑣𝑛 ) eine Orthonormalbasis von (𝑉, 𝛽). Dann ist
˜
𝐵 := Mat𝒜 (𝛽)
symmetrisch. Nach Korollar 10.35 ∃𝑃 ∈ O𝑛 (R) mit
𝑃 −1 · 𝐵 · 𝑃
diagonal. Dann ist die Basis
𝐵 = (𝑤1 , . . . , 𝑤𝑛 )
mit 𝑛
∑︁
𝑤𝑗 = 𝑝𝑖𝑗 𝑣𝑖
𝑖=1
˜
eine Orthonormalbasis bezüglich 𝛽 und eine Orthogonalbasis bezüglich 𝛽.

157
Bemerkung. Sei 𝑉 ein R-Vektorraum von dim(𝑉 ) = 𝑛, dann können wir auf 𝑉 ein
Skalarprodukt wählen. Sei 𝛽 : 𝑉 × 𝑉 → R eine symmetrische Bilinearform. Dann gibt es
eine Orthogonalbasis 𝐴 bezüglich 𝛽. Also ist

𝐵 = Mat𝒜 (𝛽)

eine Diagonalmatrix.
Aber: Die Eigenwerte von 𝐵 hängen von der Wahl der Basis ab.

Multipliziere mit 𝜆 → Multipliziere die Eigenwerte mit 𝜆2

Beispiel. 𝑉 = Mat(3, 1; R)
⎛ ⎞
2 1 1
𝛽(𝑥, 𝑦) = 𝑥𝑇 · ⎝1 0 −1⎠ · 𝑦
1 −1 0
⎛ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎞
1 1 −1
Dann ist 𝐴 = 𝑣1 = −1 , 𝑣2 =
⎝ ⎝ ⎠ ⎝ 1 , 𝑣3 =
⎠ ⎝ 1 ⎠⎠ eine Orthogonalbasis mit
1 −1 1
⎛ ⎞
4 0 0
Mat𝒜 (𝛽) = ⎝0 4 0 ⎠
0 0 −4
⎛ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎞
1 0 0
und 𝐴 = 𝑣1 = 1 , 𝑣2 = 1 , 𝑣3 =
′ ⎝ ′ ⎝ ⎠ ′ ⎝ ⎠ ′ ⎝ 1 ⎠⎠ ist eine Orthogonalbasis mit
1 1 −1
⎛ ⎞
4 0 0
Mat𝒜′ (𝛽) = ⎝0 −2 0⎠
0 0 2

Aber: Die Anzahl der positiven und die Anzahl der negativen Eigenwerte hängen nicht
von der Basis ab.
Satz 10.37 (Trägheitssatz von Sylvester)
Sei 𝑉 ein R-Vektorraum, dim(𝑉 ) = 𝑛, 𝛽 eine symmetrische Bilinearform, 𝐴 eine
Orthogonalbasis bezüglich 𝛽 und 𝐵 = Mat𝒜 (𝛽).
Sei
𝑛+ die Anzahl der positiven Eigenwerte von 𝐵

𝑛− die Anzahl der negativen Eigenwerte von 𝐵.


Dann hängen 𝑛+ , 𝑛− nicht von der Wahl der Basis 𝐴 ab. Die Kombination 𝑛+ − 𝑛− oder
(𝑛+ , 𝑛− ) wird auch Signatur von 𝛽 genannt.

158
Beweis.
𝐴 besteht aus

𝑛+ Vektoren 𝑢1 . . . 𝑢𝑛+ mit 𝛽(𝑢𝑖 , 𝑢𝑖 ) > 0

𝑛− Vektoren 𝑣1 . . . 𝑣𝑛− mit 𝛽(𝑣𝑖 , 𝑣𝑖 ) < 0

𝑛0 Vektoren 𝑤1 . . . 𝑤𝑛0 mit 𝛽(𝑤𝑖 , 𝑤𝑖 ) = 0.

1 𝑛0 = dim(𝑉0 (𝛽)) = dim(𝑉0 := {𝑣 ∈ 𝑉 |𝛽(𝑣, 𝑤) = 0 ∀ 𝑤 ∈ 𝑉 }.


Setze

𝑉+ = ℒ({𝑢1 . . . 𝑢𝑛+ })

𝑉− = ℒ({𝑣1 . . . 𝑣𝑛− })

Dann gilt
𝑉 = 𝑉0 ⊕ 𝑉+ ⊕ 𝑉− .
Sei 𝐴′ eine andere Orthogonalbasis und 𝑉+′ , 𝑉−′ die entsprechenden Untervektorräume.

𝑉0 ⊕ 𝑉+ ⊕ 𝑉− = 𝑉0 ⊕ 𝑉+′ ⊕ 𝑉−′

Behauptung:
𝑉+ ∩ (𝑉−′ ⊕ 𝑉0 ) = {0}
Andernfalls gäbe es ein 0 ̸= 𝑣 ∈ 𝑉+ ∩ (𝑉−′ ⊕ 𝑉0 ). Dann gilt 𝛽(𝑣, 𝑣) > 0, da 𝑣 ∈ 𝑉+ und da

𝑣 = 𝑣− + 𝑣0 ∈ 𝑉−′ ⊕ 𝑉0 , also
′ ′ ′ ′
𝛽(𝑣, 𝑣) = 𝛽(𝑣− + 𝑣0 , 𝑣− + 𝑣0 ) = 𝛽(𝑣− , 𝑣− ) + 𝛽(𝑣0 , 𝑣0 ) ≤ 0

Dies ist ein Widerspruch. Also folgt

𝑉+ ⊕ 𝑉−′ ⊕ 𝑉0 ⊂ 𝑉,

also
𝑛+ + 𝑛′− + 𝑛0 ≤ 𝑛 = 𝑛+ + 𝑛− + 𝑛0 ,
also
𝑛′− ≤ 𝑛−
Wenn wir die Rollen von 𝐴 und 𝐴′ vertauschen, erhalten wir

𝑛− ≤ 𝑛′− .

Also folgt 𝑛− = 𝑛′− , also

𝑛+ + 𝑛− + 𝑛0 = 𝑛′+ + 𝑛′− + 𝑛0 ⇒ 𝑛+ = 𝑛′+

159
Bemerkung. Das 𝑛-Tupel (dim(𝑉 ), 𝑛+ , 𝑛− ) bestimmt das Paar (𝑉, 𝛽) bis auf Isomorphie.

Satz 10.38
Eine symmetrische Matrix 𝐵 ∈ Mat(𝑛, 𝑛; R) ist positiv definit genau dann, wenn für alle
1 ≤ 𝑘 ≤ 𝑛 die Determinanten der Hauptminoren 𝐵𝑘 = (𝑏𝑖𝑗 )𝑘𝑖 = 1 𝑗𝑘 = 1 positiv sind, also
det(𝐵𝐾 ) > 0 ∀ 1 ≤ 𝑘 ≤ 𝑛.

Beweis.

⇒ Betrachte 𝛽 auf Mat(𝑛, 1; R) = 𝑉 definiert durch 𝛽(𝑥, 𝑦) = 𝑥𝑇 ·𝐵 ·𝑦. Wir betrachten


nun
𝑉𝑘 = ℒ({𝑒1 . . . 𝑒𝑘 }) ⊂ 𝑉.
Dann wissen wir, dass
𝐵 ist positiv definit ⇔ 𝛽 ist positiv definit
⇒ 𝛽 ⃒𝑉 ×𝑉 positiv definit

𝑘 𝑘

Für die Standardbasis 𝐴 gilt



Mat𝒜 (𝛽 ⃒𝑉 ) = 𝐵𝑘
𝑘 ×𝑉𝑘

⇒ det(𝐵𝑘 ) > 0

⇐ Wir nehmen an, dass det(𝐵𝑘 ) > 0 für alle 1 ≤ 𝑘 ≤ 𝑛 und zeigen 𝐵𝑘 > 0 für alle
1 ≤ 𝑘 ≤ 𝑛 durch vollständige Induktion nach 𝑘.
IA: 𝑘 = 1 𝐵𝑘 ist eine 1 × 1-Matrix.

det(𝐵1 ) > 0 ⇒ 𝐵1 > 0.

IS: Die Annahme ist, dass 𝐵𝑘−1 > 0.



𝐵𝑘−1 = Mat𝒜 (𝛽 ⃒𝑉 )
𝑘−1 ×𝑉𝑘−1

Zu zeigen: 𝐵𝑘 > 0.
Nach Wahl einer Orthogonalbasis bezüglich 𝛽 sind nach der Diagonalbasis 𝑘 −1
der 𝑘 Diagonalbeiträge positiv. Wir wissen auch (nach der Voraussetzung),
dass
det(𝐵𝑘 ) > 0,
also muss der 𝑘-te Diagonaleintrag von 𝐵𝑘 auch positiv sein, also 𝐵𝑘 > 0.

Proposition 10.39
Sei 𝐾 ein Körper mit char(𝐾) ̸= 2, 𝑉 ein endlich dimensionaler 𝐾-Vektorraum und
𝛽 : 𝑉 × 𝑉 → 𝐾 eine symmetrische Bilinearform. Dann existiert eine Orthogonalbasis
von 𝑉 .

160
Beweis.
durch vollständige Induktion nach 𝑛 = dim(𝑉 ).

IA: 𝑛 = 1

IS: Annahme: Die Aussage gilt für 𝐾–Vektorräume der Dimension < 𝑛.

1. Fall 𝛽 = 0
2. Fall 𝛽 ̸= 0 Behauptung: Dann existiert ein 𝑤 ∈ 𝑉 mit 𝛽(𝑤, 𝑤) ̸= 0.
Beweis durch Widerspruch: Sei 𝛽(𝑣, 𝑣) = 0 ∀ 𝑣 ∈ 𝑉 . Da 𝛽 ̸= 0 ∃𝑥, 𝑦 mit
𝛽(𝑥, 𝑦) ̸= 0. Dann gilt

0 = 𝛽(𝑥 + 𝑦, 𝑥 + 𝑦) = 𝛽(𝑥, 𝑥) + 𝛽(𝑦, 𝑦) + 2𝛽(𝑥, 𝑦) ̸= 0

(da char(𝐾) ̸= 2). Dies ist ein Widerspruch. Betrachte 𝐾𝑤 = ℒ({𝑤}),

𝑊 = (𝐾𝑤)⊥ = { 𝑣 ∈ 𝑉 | 𝛽(𝑣, 𝑤) = 0 }.

Zeige: 𝑉 = 𝐾𝑤 ⊕ 𝑊 . Wir nehmen an, dass

𝐾𝑤 ∩ 𝑊 ∋ 𝑣 ̸= 0.

Dann ist 𝑣 = 𝑘𝑤 für 𝑘 ∈ 𝐾.

0 = 𝛽(𝑣, 𝑤) = 𝑘𝛽(𝑤, 𝑤) ⇒ 𝑘 = 0 ⇒ 𝑣 = 0.

Also ist 𝑉 = 𝐾𝑤 + 𝑊 , da 𝑣 ∈ 𝑉 geschrieben werden kann als

𝛽(𝑤, 𝑣) 𝛽(𝑤, 𝑣)
𝑣= 𝑤 + (𝑣 − 𝑤)
𝛽(𝑤, 𝑤) (𝑤, 𝑤)

𝐾𝑤 𝑊

also 𝑉 = 𝐾𝑤 ⊕ 𝑊 und dim(𝑊 ) < dim(𝑉 ) = 𝑛. Also gibt es eine Orthogonal-


basis bezüglich 𝛽 von 𝑊 . Diese Orthogonalbasis kann nun durch 𝑤 zu einer
Orthogonalbasis von 𝑉 ergänzt werden.

Proposition 10.40
Sei 𝐾 ein Körper mit char(𝐾) ̸= 2 und sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) symmetrisch. Dann existiert
ein 𝑇 ∈ 𝐺𝐿𝑛 (𝐾), so dass
𝑇𝑇 · 𝐴 · 𝑇
diagonal ist.

161
Index
Abbildung, 10 Dualraum, 65
alternierende, 105 Durchschnitt, 7
duale, 67
lineare, 52 Eigenraum, 126
multilineare, 104 Eigenvektoren, 126
abgeschlossen Eigenwert, 126
algebraisch, 125 Einheitsmatrix, 76
adjungiert, 141 Einschränkung, 11
Adjunkte, 117 Endomorphismus, 54
Argument, 34 Epimorphismus, 54, 59
Aussage, 4 Erzeugendensystem, 41
Austauschsatz von Steinitz, 46 Faktorgruppe, 61
Auswertungsabbildung, 53 Faktormenge, 18
Automorphismus Faktorraum, 62
Gruppe, 27 Fehlstände, 106
Vektorraum, 54
Gauß-Algorithmus, 100
Basis, 44 Gleichungssystem
duale, 66 homogen, 91
geordnete, 81 inhomogen, 91
Basiswechselmatrizen, 87 linear, 90
Beweismethoden, 6 Grad, 121
bijektiv, 13 Gruppe, 20
Bild, 12, 58 abelsche, 20
Bilinearform, 137 alternierend, 108
nicht ausgeartet, 140 lineare
schiefsymmetrisch, 139 allgemeine, 77
symmetrisch, 139 spezielle, 114
Charakteristik, 31 orthogonale, 156
Cramersche Regel, 118 symmetrische, 21, 106

definit Homomorphismus
positiv, 146 Gruppe, 24
Definitionsbereich, 10 Körper, 30
Determinante, 110, 112 Ring, 31
Diagonalisierbarkeit, 132 Vektorraum, 52
Dimensionsformel, 49
imaginäre Einheit, 32
disjunkt, 8
Implikation, 4
Disjunktion, 4
injektiv, 13
Dreiecksungleichung, 33, 148

162
isomorph, 60 Nullpolynom, 121
Isomorphismus Nullstelle, 124
Gruppe, 24 Nullvektorraum, 36
Körper, 30
Vektorraum, 54, 59 Ordnung, 9
Orientierung, 120
kanonisch, 61 orthogonal, 142
Kardinalität, 16 Orthogonalbasis, 143
Kern, 26, 58 Orthonormalbasis, 143
Kofaktormatrix, 117
Permutation, 21, 106
Komplement, 8, 51
Pivotelement, 94
Komposition, 14
Polynom, 121
Konjugation
charakteristisches, 128
komplexe, 33
Potenzmenge, 10
Konjunktion, 4
Projektion, 11
Körper, 27
kanonische, 18, 62, 121
Laplace’scher Entwicklungssatz, 116 orthogonale, 153
Lineare Hülle, 40
Quotientenmenge, 18
Lineare Unabhängigkeit, 41
Linearfaktoren, 126 Rang, 60
Linearkombination, 39 Rechtsinverses, 15
Linksinverses, 15 Relation, 17
Linksnebenklasse, 61 Restklasse, 19
Lösungsraum, 91 Ring, 28
Russel’sches Paradox, 10
Matrix, 69
Darstellung, 137 Signatur, 158
inverse, 76 Signum, 106
komplementäre, 117 Skalarprodukt, 146
orthogonal, 156 Spaltenrang, 78
transponierte, 79 Spaltenraum, 78
Matrixdarstellung, 82 Spaltenvektor, 70
Menge, 6 Spann, 40
leere, 7 Spur, 128
Metrik, 149 Standardbasis, 44
Minor, 117 Strukturmatrix, 137
modulo, 19 Summe
Monomorphismus, 54, 59 äußere direkte, 52
Multilinearform, 104 surjektiv, 13
Multiplizität, 126
Teilmenge, 7
Negation, 4 Transposition, 106
Norm, 148 Trägheitssatz von Sylvester, 158

163
Umkehrabbildung, 13
Untergruppe, 23
Untervektorraum, 37
Urbild, 12
Urbildmenge, 11

Vektorraum, 35
Euklidischer, 150
Vereinigung, 8
disjunkte, 19
Vollständige Induktion, 6

Wertebereich, 10

Zeilenrang, 78
Zeilenraum, 78
Zeilenstufenform, 94
Zeilenvektor, 70

Äquivalenz, 4
Äquivalenzklasse, 17
Äquivalenzrelation, 17

164

Das könnte Ihnen auch gefallen