Beruflich Dokumente
Kultur Dokumente
Wintersemester 2020/21
gelesen von
Prof. Dr. Anna Wienhard
geTEXt von
Markus Reinig, ...
Stand von 20. Juni 2023
1
Inhaltsverzeichnis
I Grundlagen 4
0 Aussagenlogik 4
1 Mengen 6
2 Abbildungen 10
3 Äquivalenzrelationen 17
II Vektorräume 20
4 Gruppen 20
4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2 Untergruppen und Homomorphismen . . . . . . . . . . . . . . . . . . . . 23
5 Körper 27
5.1 Unterkörper und Körperhomomorphismen . . . . . . . . . . . . . . . . . 30
5.2 Die Komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6 Vektorräume 35
6.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.2 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.3 Erzeugendensystem, lineare Unabhängigkeit, Basen . . . . . . . . . . . . 39
6.4 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.5 Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
8 Determinanten 104
8.1 Alternierende Multilinearform . . . . . . . . . . . . . . . . . . . . . . . . 104
8.2 Determinanten von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.3 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2
9.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . 128
9.4 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3
Teil I
Grundlagen
0 Aussagenlogik
Eine Aussage ist ein feststehender Satz, dem genau einer der Wahrheitswerte „wahr“ oder
„falsch“ zugeordnet werden kann.
Wir können Aussagen auch verknüpfen: Negation (nicht, geschrieben: ¬), Konjunktion
(und, geschrieben: ∧), Disjunktion (oder, geschrieben: ∨), Entweder-Oder (geschrieben:
∨˙ oder ∨), Implikation (geschrieben: ⇒), Äquivalenz (geschrieben: ⇔).
𝐴 ¬𝐴
Negation: w f
f w
𝐴 𝐵 𝐴∧𝐵
w w w
Konjunktion: w f f
f w f
f f f
𝐴 𝐵 𝐴∨𝐵
w w w
Disjunktion: w f w
f w w
f f f
𝐴 𝐵 entweder 𝐴 oder 𝐵
w w f
Entweder-Oder: w f w
f w w
f f f
𝐴 𝐵 𝐴⇒𝐵
w w w
Implikation: w f f
f w w
f f w
Wir sagen auch, dass 𝐴 eine hinreichende Bedingung für 𝐵 ist und dass 𝐵 eine
notwendige Bedingung für 𝐴 ist.
4
𝐴 𝐵 𝐴⇔𝐵
w w w
Äquivalenz: w f f
f w f
f f w
𝐴 𝐵 (𝐴 ⇒ 𝐵) ∧ (𝐵 ⇒ 𝐴)
w w w
w f f
f w f
f f w
Beweismethoden
Sätze sind in der Regel als Implikationen 𝐴 ⇒ 𝐵 formuliert
Voraussetzung Behauptung
Quantoren:
𝐴(𝑥) Aussage, die von einer Variablen 𝑥 abhängt
∃𝑥 : 𝐴(𝑥) es existiert (mindestens) ein 𝑥, so dass die Aussage 𝐴(𝑥) wahr ist.
∃!𝑥 : 𝐴(𝑥) es existiert genau ein 𝑥, so dass 𝐴(𝑥) wahr ist
∀𝑥 : 𝐴(𝑥) für alle 𝑥 ist die Aussage 𝐴(𝑥) wahr
Übung.
5
Beweismethoden:
→ Beispiel geben ∃𝑥
→ Gegenbeispiel geben: um zu zeigen, dass ∀𝑥 : 𝐴(𝑥) falsch ist
Vollständige Induktion
Allaussagen über natürliche Zahlen kann man durch vollständige Induktion beweisen.
Sei 𝐴(𝑛) eine Aussage über alle natürlichen Zahlen.
Induktionsanfang (InA): 𝐴(1) ist wahr
Induktionsschritt (InS): ∀𝑛 ∈ N gilt 𝐴(𝑛) ⇒ 𝐴(𝑛 + 1)
Dann gilt ∀𝑛 ∈ N : 𝐴(𝑛)
Beispiel.
𝑛
∑︁ 𝑛(𝑛 + 1)
𝐴(𝑛) : 𝑘=
𝑘=1
2
InA: 1·2 √
1= =1
2
InS:
𝑛+1
∑︁ 𝑛
∑︁
𝑘= 𝑘 + (𝑛 + 1)
𝑘=1 𝑘=1
𝑛(𝑛 + 1)
= + (𝑛 + 1)
2
𝑛(𝑛 + 1) + 2(𝑛 + 1)
=
2
(𝑛 + 1)(𝑛 + 2)
=
2 √
𝐴(𝑛 + 1)
1 Mengen
Eine Menge ist die Zusammenfassung von unterschiedlichen Objekten zu einem neuen
Objekt.
𝑀 = {1, 2, 3} 𝑀 = {𝑒, 𝑚} 𝑀 = {1, 2, {3, 4}}
Wichtige Mengen:
6
rationale Zahlen Q ={ 𝑝
𝑞
| 𝑝 ∈ Z, 𝑞 ∈ N, 𝑝𝑞 gekürzter Bruch }
reelle Zahlen R
komplexe Zahlen C
Definition 1.1
• Eine Menge M ist eine Teilmenge (Untermenge) einer Menge 𝑁 , falls für alle 𝑥 ∈ 𝑀
auch gilt: 𝑥 ∈ 𝑁 . (Äquivalent: falls 𝑥 ∈ 𝑀 ⇒ 𝑥 ∈ 𝑁 .) Wir schreiben 𝑀 ⊂ 𝑁 oder
𝑁 ⊃ 𝑀 oder 𝑀 ⊆ 𝑁 . Man nennt 𝑁 auch Obermenge von 𝑀 .
• Gilt zudem 𝑀 ̸= 𝑁 , so nennt man 𝑀 eine echte Teilmenge von 𝑁 . Wir schreiben
𝑀 ( 𝑁 oder 𝑁 ) 𝑀 .
Bemerkung.
1 Aus 𝐴 ⊆ 𝐵 und 𝐵 ⊆ 𝐶 folgt 𝐴 ⊆ 𝐶
2 Aus 𝐴 ⊂ 𝐵 und 𝐵 ⊂ 𝐴 folgt 𝐴 = 𝐵
Beweis.
Sei 𝐴 ⊂ 𝐵 und 𝐵 ⊂ 𝐶, dann gilt 𝑥 ∈ 𝐴 ⇒ 𝑥 ∈ 𝐵 und 𝑥 ∈ 𝐵 ⇒ 𝑥 ∈ 𝐶, also folgt
𝑥 ∈ 𝐴 ⇒ 𝑥 ∈ 𝐶, d.h. 𝐴 ⊂ 𝐶.
Definition 1.2
Gegeben sind zwei Mengen 𝑀 und 𝑁 . Definieren wir
1 Durchschnitt von 𝑀 und 𝑁
𝑀 ∩𝑁 ={ 𝑥 | 𝑥∈𝑀 ∧𝑥∈𝑁 }
𝑀 𝑀 ∩𝑁 𝑁
7
2 Vereinigung von 𝑀 und 𝑁
𝑀 ∪𝑁 ={ 𝑥 | 𝑥∈𝑀 ∨𝑥∈𝑁 }
𝑀 𝑀 ∪𝑁 𝑁
𝑀 𝑀 ∖𝑁 𝑁
Definition 1.3
𝑀 und 𝑁 heißen disjunkt falls 𝑀 ∩ 𝑁 = ∅
𝑀 𝑁
2) 𝑀 ∩ 𝑁 ⊆ 𝑁 ⊆ 𝑀 ∪ 𝑁
3) 𝑀 ∖ 𝑁 ⊆ 𝑀
4) (𝑀 ∖ 𝑁 ) ∩ 𝑁 = ∅
5) 𝑀 ∖ 𝑁 = ∅ ⇔ 𝑀 ⊆ 𝑁
6) 𝑀 ∪ 𝑁 = ∅ ⇔ 𝑀 = ∅ ∧ 𝑁 = ∅
8
1) (𝑀 ∩ 𝑁 ) ∩ 𝑂 = 𝑀 ∩ (𝑁 ∩ 𝑂) = ...
(𝑀 ∪ 𝑁 ) ∪ 𝑂 = 𝑀 ∪ (𝑁 ∪ 𝑂) = ...
2) (𝑀 ∪ 𝑁 ) ∩ 𝑂 = (𝑀 ∩ 𝑂) ∪ (𝑁 ∩ 𝑂)
(𝑀 ∩ 𝑁 ) ∪ 𝑂 = (𝑀 ∪ 𝑂) ∩ (𝑁 ∪ 𝑂)
3) (𝑀 ∖ 𝑁 ) ∩ 𝑂 = (𝑀 ∩ 𝑂) ∖ 𝑁 = (𝑀 ∩ 𝑂) ∖ (𝑁 ∩ 𝑂)
4) 𝑂 ∖ (𝑀 ∪ 𝑁 ) = (𝑂 ∖ 𝑀 ) ∩ (𝑂 ∖ 𝑁 )
𝑂 ∖ (𝑀 ∩ 𝑁 ) = (𝑂 ∖ 𝑀 ) ∪ (𝑂 ∖ 𝑁 )
Definition 1.4
Produkt zweier Menge 𝑀 und 𝑁 ist definiert als die Menge
𝑀 × 𝑁 = { (𝑥, 𝑦) | 𝑥 ∈ 𝑀 ∧ 𝑦 ∈ 𝑁 }
geordnete Paare
Beispiel.
1) 𝑀 × ∅ = ∅
(1, 1)
1
0 1
Definition 1.5
• Sei 𝑀 eine endliche Menge. Die Ordnung von 𝑀 ist die Anzahl der Elemente in
𝑀 , wir schreiben |𝑀 |.
9
• Die Potenzmenge 𝑃 (𝑀 ) einer (endlichen) Menge 𝑀 ist die Menge aller Teilmengen
von 𝑀 .
Beispiel.
|𝑃 (𝑀 )| = 2𝑛 .
2 Abbildungen
Definition 2.1
Eine Abbildung 𝑓 von einer Menge 𝑀 in eine Menge 𝑁 ist eine Vorschrift, die jedem
Element 𝑚 ∈ 𝑀 genau ein Element 𝑛 = 𝑓 (𝑚) ∈ 𝑁 zuordent.
𝑓
Wir schreiben 𝑓 : 𝑀 → 𝑁, 𝑚 ↦→ 𝑓 (𝑚) oder auch 𝑀 → − 𝑁.
Die Menge 𝑀 heißt Definitionsbereich von 𝑓 , die Menge 𝑁 Wertebereich von 𝑓 .
• • •
• • •
• •
𝑀 𝑁
Beispiel.
1) 𝑓 : Z → Z, 𝑥 ↦→ 𝑥3 + 2
2) identische Abbildung:
𝑖𝑑𝑀 : 𝑀 → 𝑀
𝑚 ↦→ 𝑚
𝑚 ↦→ 𝑚
1
https://www.youtube.com/watch?v=WiPlFycsQ2s
10
4) Seien 𝑀 , 𝑁 zwei Mengen und 𝑛0 ∈ 𝑁 ein beliebiges Element. Die Abbildung
𝑓 :𝑀 →𝑁
𝑚 ↦→ 𝑛0
heißt konstante Abbildung.
Bemerkung.
Abbildungen 𝑓 : R → R (oder allgemeiner 𝑓{︃: R𝑛 → R) heißen Funktionen.
0 𝑥≥0
Zum Beispiel: 𝑓 (𝑥) = 𝑥2 oder auch 𝑓 (𝑥) =
1 𝑥<0
{︃
0 𝑥≥0
NICHT ABER 𝑓 (𝑥) = , 𝑓 (𝑥) = 𝑥1
1 𝑥≤0
Definition 2.2
Zwei Abbildungen 𝑓 : 𝑀 → 𝑁 und 𝑔 : 𝑀 → 𝑁 sind gleich, falls 𝑓 (𝑚) = 𝑔(𝑚) für alle
𝑚 ∈ 𝑀 gilt. Wir schreiben 𝑓 = 𝑔.
Definition 2.3
Seien 𝑀, 𝑁 Mengen, 𝑓 : 𝑀 → 𝑁 eine Abbildung. Sei 𝑀 ′ ⊂ 𝑀 eine Teilmenge. Die
Einschränkung von 𝑓 auf 𝑀 ′ ist definiert als
𝑓 |𝑀 ′ : 𝑀 ′ → 𝑁, 𝑚 ↦→ 𝑓 (𝑚).
Definition 2.4
Sei 𝑓 : 𝑀 → 𝑁 eine Abbildung der Menge 𝑀 in die Menge 𝑁 .
𝑓 −1 (𝑛) := { 𝑚 ∈ 𝑀 | 𝑓 (𝑚) = 𝑛 }
11
• • • •
• •
• • •
𝑀 𝑁
𝑓 −1 (𝑁 ′ ) := { 𝑚 ∈ 𝑀 | 𝑓 (𝑚) ∈ 𝑁 ′ } ⊂ 𝑀.
𝑓 (𝑀 ′ ) := { 𝑓 (𝑚) ∈ 𝑁 | 𝑚 ∈ 𝑀 ′ } ⊂ 𝑁.
Bemerkung.
𝑓 (𝑀 ′ ) ⊂ 𝑁 ′ ⇔ 𝑀 ′ ⊂ 𝑓 −1 (𝑁 ′ ).
3) Es gilt daher
𝑀 ′ ⊂ 𝑓 −1 (𝑓 (𝑀 ′ ))
𝑓 (𝑓 −1 (𝑁 ′ )) ⊂ 𝑁 ′ .
Beweis.
Definition 2.5
Wichtige Eigenschaften von Abbildungen: Eine Abbildung 𝑓 : 𝑀 → 𝑁 heißt
12
1 injektiv, falls für alle 𝑛 ∈ 𝑁 die Urbildmenge 𝑓 −1 (𝑛) höchstens ein Element enthält.
(äquivalent: falls gilt 𝑚 ̸= 𝑚′ ⇒ 𝑓 (𝑚) ̸= 𝑓 (𝑚′ )).
∋
𝑀 𝑀
• • •
• •
• •
𝑀 𝑁
• • •
• • • •
𝑀 𝑁
• • • •
• • • •
𝑀 𝑁
𝑓 −1 : 𝑁 → 𝑀
durch die Regel: 𝑓 −1 (𝑛) = Das eindeutige Element der Menge 𝑓 −1 (𝑛).
Achtung: Hier verwenden wir das Symbol 𝑓 −1 in zwei verschiedenen Weisen.
→ als Urbildmenge
→ als Umkehrabbildung
13
Verknüpfung von Abbildungen
Definition 2.6
Seien 𝑓 : 𝑀 → 𝑁 und 𝑔 : 𝑁 → 𝑂 Abbildungen. Die Abbildung
Lemma 2.7. Die Komposition zweier injektiver (bzw. surjektiver, bzw. bijektiver) Abbil-
dungen ist injektiv (bzw. surjektiv, bzw. bijektiv).
Beweis.
Seien 𝑓 : 𝑀 → 𝑁 und 𝑔 : 𝑁 → 𝑂 injektiv. Nehme an (𝑔 ∘ 𝑓 )(𝑚) = (𝑔 ∘ 𝑓 )(𝑚′ ) für
𝑚, 𝑚′ ∈ 𝑀 . Dann gilt
𝑔(𝑓 (𝑚)) = 𝑔(𝑓 (𝑚′ ))
Da 𝑔 injektiv ist, folgt 𝑓 (𝑚) = 𝑓 (𝑚′ ) für 𝑚, 𝑚′ ∈ 𝑀.
Da 𝑓 injektiv ist, folgt 𝑚 = 𝑚′ .
Also 𝑓 ∘ 𝑔 surjektiv.
Da
(𝑔 ∘ 𝑓 )(𝑚) = (𝑔 ∘ 𝑓 )(𝑚′ ) ⇒ 𝑚 = 𝑚′
äquivalent ist zu
𝑚 ̸= 𝑚′ ⇒ (𝑔 ∘ 𝑓 )(𝑚) ̸= (𝑔 ∘ 𝑓 )(𝑚′ ).
Bemerkung.
𝑓 𝑛 = 𝑓 ∘ ... ∘ 𝑓
⏟ ⏞
n-mal
14
4 Ist 𝑓 : 𝑀 → 𝑁 bijektiv und ist 𝑓 −1 : 𝑁 → 𝑀 die Umkehrabbildung, so gilt
𝑓
𝑀 𝑁
𝑓 −1
𝑓 −1 ∘ 𝑓 = 𝑖𝑑𝑀 𝑓 ∘ 𝑓 −1 = 𝑖𝑑𝑁
Lemma 2.8. Sei 𝑓 : 𝑀 → 𝑁 eine Abbildung zwischen zwei nichtleeren Mengen 𝑀 und
𝑁 . Dann gilt
𝑔 ∘ 𝑓 = 𝑖𝑑𝑀
𝑓 ∘ 𝑔 = 𝑖𝑑𝑁
𝑓 ∘ 𝑔 = 𝑖𝑑𝑁 𝑔 ∘ 𝑓 = 𝑖𝑑𝑀
Beweis.
𝑓 (𝑚) = 𝑛.
𝑔 : 𝑁 → 𝑀 mit 𝑔 ∘ 𝑓 = 𝑖𝑑𝑀 .
𝑚 = 𝑖𝑑𝑀 (𝑚) = (𝑔∘𝑓 )(𝑚) = 𝑔(𝑓 (𝑚)) = 𝑔(𝑓 (𝑚′ )) = 𝑔∘𝑓 (𝑚′ ) = 𝑖𝑑𝑀 (𝑚′ ) = 𝑚′
15
2 „⇒“ Sei 𝑓 surjektiv.Dann ist für alle 𝑛 ∈ 𝑁 die Urbildmenge 𝑓 −1 (𝑛) nicht leer.
Auswahlaxiom:2
Wähle ein 𝑚 ∈ 𝑓 −1 aus und definiere 𝑔 : 𝑁 → 𝑀 durch 𝑔(𝑛) := 𝑚. Dann gilt
(𝑓 ∘ 𝑔)(𝑛) = 𝑛,
also 𝑓 ∘ 𝑔 = 𝑖𝑑𝑁 .
„⇐“ Sei 𝑔 : 𝑁 → 𝑀 ein Rechtsinverses. Dann gilt für alle 𝑛 ∈ 𝑁
𝑛 = (𝑓 ∘ 𝑔)(𝑛) = 𝑓 (𝑔(𝑛)).
Bemerkung. Wie bezeichnen mit Abb(𝑀, 𝑁 ) die Menge aller Abbildungen von 𝑀 nach
𝑁 . Die Komposition ist eine Abbildung von Abbildungen
Abb(𝑀, 𝑁 ) × Abb(𝑁, 𝑂) → Abb(𝑀, 𝑂)
(𝑓, 𝑔) ↦→ 𝑔 ∘ 𝑓
Lemma 2.9. Sei 𝐼 eine Menge (Indexmenge) und 𝑀 eine Menge. Es existiert eine Bijektion
(natürliche Bijektion) ∏︁
Φ : Abb(𝐼, 𝑀 ) → 𝑀
𝑖∈𝐼
𝑓 ↦→ (𝑓 (𝑖))𝑖∈𝑀
Bemerkung.
1) Seien 𝑀, 𝑁 nichtleere, endliche Mengen, sei |𝑀 | = 𝑚, |𝑁 | = 𝑛 die Kardinalität
von 𝑀 und 𝑁 .
|𝑀 × 𝑁 | = 𝑚 · 𝑛
| Abb(𝑀, 𝑁 )| = 𝑛𝑚
| Abb(𝑁, 𝑀 )| = 𝑚𝑛
2) | Abb(∅, 𝑀 )| = 1
Abb(∅, 𝑀 ) = ∅
Abb(∅, ∅) = {𝑖𝑑∅ }
2
https://www.youtube.com/watch?v=ErHXpwyvUxg
16
3 Äquivalenzrelationen
Eine Relation setzt Elemente einer gegebenen Menge 𝑀 in Beziehung zueinander.
Wir schreiben 𝑚 ∼ 𝑛 wenn 𝑚, 𝑛 ∈ 𝑀 in dieser Beziehung stehen.
⎧
Beispiel. ⎪
⎪
⎪ Keine Äquivalenzrelation
⎨(Ä1) nicht erfüllt
⎪
1) 𝑀 = R 𝑥 ∼ 𝑦 :⇔ 𝑥 < 𝑦
⎪
⎪
⎪ (Ä2) nicht erfüllt
⎩(Ä3) ist erfüllt
⎪
Definition 3.1
Eine Relation auf einer Menge 𝑀 ist eine Teilmenge 𝑅 ⊂ 𝑀 × 𝑀
𝑚 ∼ 𝑛 :⇔ (𝑚, 𝑛) ∈ 𝑅
Definition 3.2
Eine Relation ∼ auf einer Menge 𝑀 heißt Äquivalenzrelation, wenn folgende Bedingungen
erfüllt sind:
Definition 3.3
Sei 𝑀 eine Menge und ∼ eine Äquivalenzrelation auf 𝑀 .
[𝑚] := {𝑛 ∈ 𝑀 |𝑚 ∼ 𝑛} ⊆ 𝑀
17
Lemma 3.4.
Beweis.
𝑚 ∈ 𝐴 und 𝑚 ∈ 𝐴′ ⇒ 𝐴 = 𝐴′ .
Definition 3.5
𝑀/∼
2 Die Abbildung
𝑝: 𝑀 → 𝑀/∼
𝑚 ↦→ [𝑚]
18
Bemerkung.
1) Die Urbildmenge 𝑝−1 (𝐴) einer Äquivalenzklasse 𝐴 ist 𝐴 (aufgefasst als Teilmenge
von 𝑀 ).
Beispiel.
1
Z = N × N/∼
(𝑚, 𝑛) ∼ (𝑚′ , 𝑛′ ) :⇔ 𝑚 − 𝑛 = 𝑚′ − 𝑛′
2 Restklassen modulo 𝑝
Sei 𝑀 = Z und 𝑝 ∈ N eine natürliche Zahl
[𝑥] = { 𝑥 + 𝑛𝑝 ∈ 𝑍 | 𝑛 ∈ 𝑍 }
Es gilt [𝑧] = [𝑥 + 𝑛𝑝] für alle 𝑛 ∈ Z. Daher gibt es genau 𝑝 Äquivalenzklassen.
[0] [1] . . . [𝑝 − 1]
Die Äquivalenzklassen [𝑥] werden Restklassen modulo 𝑝 genannt, da sie aus allen
ganzen Zahlen bestehen, die bei Divison durch 𝑝 den gleichen Rest wie 𝑥 ergeben.
Die Quotientenmenge Z/∼ nennt man auch Z/𝑝Z .
19
Teil II
Vektorräume
4 Gruppen
4.1 Definition
Definition 4.1 (Gruppe)
Eine Gruppe ist ein Paar (𝐺, ∙) bestehend aus einer Menge 𝐺 und einer Abbildung
∙ : 𝐺 × 𝐺 → 𝐺,
𝑔 · (ℎ · 𝑖) = (𝑔 · ℎ) · 𝑖
𝑔·𝑒=𝑔
𝑔 · 𝑔′ = 𝑒
G4 ∀𝑔, ℎ ∈ 𝐺 gilt
𝑔·ℎ=ℎ·𝑔
Beispiel.
20
4 (Z ∖ 𝑝Z, +) ist eine abelsche Gruppe.
Wie ist die Addition definiert?
Seien [𝑚], [𝑛] ∈ Z ∖ 𝑝Z Restklassen, definiere
[𝑚] + [𝑛] = { 𝑚 + 𝑘𝑝 + 𝑛 + 𝑙𝑝 ∈ Z | 𝑙, 𝑘 ∈ Z }
= { (𝑚 + 𝑛) + (𝑘 + 𝑙)𝑝 | 𝑙, 𝑘 ∈ Z }
= { (𝑚 + 𝑛) + 𝑟𝑝 | 𝑟 ∈ Z } = [𝑚 + 𝑛]
Also
+ : Z ∖ 𝑝Z × Z ∖ 𝑝Z → Z ∖ 𝑝Z
([𝑚], [𝑛]) ↦→ [𝑚 + 𝑛]
Diese Abbildung ist assoziativ und kommutativ. Das rechtsneutrale Element ist [0],
rechtsinverse zu [𝑛] ist [−𝑛].
5 Sei 𝑀 eine nichtleere Teilmenge und Bij(𝑀, 𝑀 ) die Menge aller Bijektionen von
𝑀 nach 𝑀 .
Dann ist (Bij(𝑀, 𝑀 ), ∘) mit der Komposition
eine Gruppe.
√
Assoziativität
Rechtsneutrales Element: 𝑖𝑑𝑀
Rechtsinverses Element zu 𝑔 ist die Umkehrabbildung 𝑔 −1 .
21
𝑆1 besteht aus einem Element 𝑒.
𝑆2 besteht aus zwei Elementen:
(︃ )︃ (︃ )︃
1, 2 1, 2
𝑒= 𝜏= "Transposition"
1, 2 2, 1
Es gilt 𝜏 2 = 𝜏 · 𝜏 = 𝜏 ∘ 𝜏 = 𝑒.
Wie viele Elemente hat 𝑆𝑛 ?
𝑆𝑛 𝑆𝑛
(︃ )︃ (︃ )︃
1, 2, 3, 4, ..., 𝑛 1, 2, 3, 4, ..., 𝑛
Sei 𝜋 = und 𝜎 =
2, 1, 3, 4, ..., 𝑛 1, 3, 2, 4, ..., 𝑛
(︃ 1, 2, 3, 4, ..., 𝑛 )︃ (︃ 1, 2, 3, 4, ..., 𝑛 )︃
𝜋·𝜎 = 1, 3, 2, 4, ..., 𝑛 und 𝜎 · 𝜋 = 2, 1, 3, 4, ..., 𝑛
2, 3, 1, 4, ..., 𝑛 3, 1, 2, 4, ..., 𝑛
Also 𝜋 · 𝜎 ̸= 𝜎 · 𝜋.
Satz 4.2
Sei (𝐺, ∙) eine Gruppe. Dann gilt
𝑔′ · 𝑔 = 𝑒
𝑔 · ℎ = 𝑔 ⇒ ℎ = 𝑒.
22
Beweis.
𝑒 = 𝑔 ′ · 𝑔 ′′ = (𝑔 ′ · 𝑒) · 𝑔 ′′ = (𝑔 ′ · (𝑔 · 𝑔 ′ )) · 𝑔 ′′
𝐺3 𝐺2 𝐺3+𝑉 𝑜𝑟.
= (𝑔 ′ · 𝑔) · (𝑔 ′ · 𝑔 ′′ ) = (𝑔 · 𝑔) · 𝑒 = 𝑔 ′ · 𝑔.
′
𝐺1 𝐺3 𝐺2
𝑒 · 𝑔 = (𝑔 · 𝑔 ′ ) · 𝑔 = 𝑔 · (𝑔 ′ · 𝑔) = 𝑔 · 𝑒 = 𝑔.
𝐺3 𝐺1 1 𝐺2
ℎ = 𝑒 · ℎ = (𝑔 ′ · 𝑔) · ℎ = 𝑔 ′ · (𝑔 · ℎ) = 𝑔 ′ · 𝑔 = 𝑒
2 1 𝐺1 𝑉 𝑜𝑟.
ℎ = 𝑒 · ℎ = (𝑔 ′ · 𝑔) · ℎ = 𝑔 ′ · (𝑔 · ℎ) = 𝑔 ′
2 1 𝐺1 𝑉 𝑜𝑟.
𝑔·ℎ=𝑔·𝑘 ⇒ℎ=𝑘
ℎ·𝑔 =𝑘·𝑔 ⇒ℎ=𝑘
2
𝐺 ∋ (𝑔 · ℎ)−1 = ℎ−1 · 𝑔 −1
denn (𝑔 · ℎ) · (ℎ−1 · 𝑔 −1 ) = 𝑔 · (ℎ · ℎ−1 ) · 𝑔 −1
= 𝑔 · 𝑒 · 𝑔 −1 = 𝑔 · 𝑔 −1 = 𝑒
23
Bemerkung. (𝐻, ∙) ist selbst eine Gruppe.
√
→ Assoziativität
Beispiel.
Satz 4.4
Alle Untergruppen 𝐻 ⊂ Z sind von der Form 𝐻 = 𝑝Z, 𝑝 ∈ N0 .
Beweis.
Sei 𝐻 ∈ Z eine Untergruppe, so gilt 0 ∈ 𝐻.
2. Fall Andernfalls enthält 𝐻 mindestens eine positive ganze Zahl, denn für alle 𝑞 ∈ 𝐻
gilt −𝑞 ∈ 𝐻.
Sei 𝑝 ∈ 𝑍 die kleinste positive ganze Zahl in 𝐻.
Dann gilt 𝑛 · 𝑝 ∈ 𝐻 für alle 𝑛 ∈ Z, also 𝑝Z ⊂ 𝐻. Gäbe es ein 𝑞 ∈ 𝐻 ∖ 𝑝Z, dann
wissen wir dass alle 𝑞 − 𝑛𝑝 ∈ 𝐻. Aber die kleinste positive ganze Zahl dieser Form
ist kleiner als 𝑝. Das ist ein Widerspruch, da 𝑝 nach unserer Annahme die kleinste
positive Zahl in 𝐻 ist.
Also 𝑝Z = 𝐻.
Definition 4.5
Seien (𝐺, ∙𝐺 ) und (𝐻, ∙𝐻 ) Gruppen. Ein Gruppenhomomorphismus von 𝐺 und 𝐻 ist eine
Abbildung
𝜑 : 𝐺 → 𝐻,
so dass für alle 𝑎, 𝑏 ∈ 𝐺 gilt
Ist 𝜑 bijektiv, so nennt man 𝜑 einen Gruppenisomorphismus. Wir sagen dann 𝐺 ist
isomorph zu 𝐻 und schreiben 𝐺 ∼= 𝐻.
24
Beispiel.
ein Gruppenhomomorphismus.
2) Die Abbildung
𝑝·
Z− → 𝑝Z ⊂ Z
𝑛 ↦→ 𝑝𝑛
3) Die Quotientenabbildung
𝜋 : Z → Z ∖ 𝑝Z
𝑛 ↦→ [𝑛]
Proposition 4.6
Seien 𝐺 und 𝐻 Gruppen und 𝜑 : 𝐺 → 𝐻 ein Gruppenhomomorphismus.
2 Sei 𝐺′ ⊂ 𝐺 eine Untergruppe von 𝐺. Dann ist 𝜑(𝐺′ ) eine Untergruppe von 𝐻.
Insbesondere ist das Bild von 𝜑,
𝜑(𝐺) = im(𝜑)
25
3 Ist 𝐻 ′ ⊂ 𝐻 eine Unterguppe von 𝐻, so ist das Urbild 𝜑−1 (𝐻 ′ ) eine Untergruppe
von 𝐺. Insbesondere ist der Kern von 𝜑
𝜑−1 : 𝐻 → 𝐺.
Beweis.
zu 1 Es gilt
𝜑(𝑔) = 𝜑(𝑒𝐺 ·𝐺 𝑔) = 𝜑(𝑒𝐺 ) ·𝐻 𝜑(𝑔)
Nach Satz 4.2 3 gilt 𝜑(𝑒𝐺 ) = 𝑒𝐻 . Daraus folgt weiter
zu 4 Die Umkehrabbildung 𝜑−1 : 𝐻 → 𝐺 ist bijektiv, wir müssen zeigen: 𝜑−1 ist ein
Gruppenhomomorphismus.
Seien 𝑎, 𝑏 ∈ 𝐻 mit 𝜑(𝑎′ ) = 𝑎, 𝜑(𝑏′ ) = 𝑏. Dann gilt
𝜑−1 (𝑎) ·𝐺 𝜑−1 (𝑏) = 𝑎′ ·𝐺 𝑏′ = 𝜑−1 (𝜑(𝑎′ ·𝐺 𝑏′ )) = 𝜑−1 (𝜑(𝑎′ ) ·𝐻 𝜑(𝑏′ )) = 𝜑−1 (𝑎 ·𝐻 𝑏).
26
Bemerkung. Ein Gruppenisomorphismus 𝜑 : 𝐺 → 𝐺 heißt Gruppenautomorphismus. Die
Menge Aut(𝐺) aller Gruppenautomorphismen von 𝐺 mit der Verknüpfung
5 Körper
Definition 5.1
Ein Körper ist ein Tripel (𝐾, +, ∙) bestehend aus einer nichtleeren Menge K und zwei
Verknüpfungen
+: 𝐾 ×𝐾 →𝐾 und ∙: 𝐾 ×𝐾 →𝐾
(𝑥, 𝑦) ↦→ 𝑥 + 𝑦 (𝑥, 𝑦) ↦→ 𝑥 · 𝑦
K1 (𝐾, +) ist eine abelsche Gruppe. Das neutale Element bezeichnen wir mit 0.
K2 (𝐾 * := 𝐾 ∖ {0}, ∙) ist eine abelsche Gruppe. Das neutrale Element bezeichnen wir
mit 1.
(𝑥 + 𝑦) · 𝑧 = (𝑥 · 𝑧) + (𝑦 · 𝑧)
𝑧 · (𝑥 + 𝑦) = (𝑧 · 𝑥) + (𝑧 · 𝑦)
27
Definition 5.2
Ein Ring ist ein Tripel (𝐾, +, ∙) wie in Definition 5.1, das nur K1 und K3 erfüllt und
dessen Multiplikation assoziativ ist.
Beispiel.
Notation
3) 𝑥 ∈ 𝐾, 𝑛 ∈ Z ⎧
⎪
⎪
⎪ 0 𝑛=0
⎪
⎨𝑥 + 𝑥 + ... + 𝑥
⎪ 𝑛>0
𝑛𝑥 =
⏟ ⏞
n-mal
⎪
(−𝑥) + (−𝑥) + ... + (−𝑥) 𝑛 < 0
⎪
⎪
⎪
⎪
⎩⏟ ⏞
n-mal
5) für 𝑥 ∈ 𝐾 * , 𝑛 ∈ N
⎧
⎪
⎪1 𝑛=0
⎪
⎨𝑥 · 𝑥 · ... · 𝑥
⎪
𝑛>0
𝑥𝑛 = ⏟ ⏞
n-fach
−1 −1 −1
⎪
⎩𝑥
⏟ +𝑥 + ⏞ ... + 𝑥 𝑛<0
⎪
⎪
⎪
n-fach
1 1 ̸= 0
2 0·𝑥=0=𝑥·0
3 0=𝑥·𝑦 ⇒𝑥=0∨𝑦 =0
5 (𝑥 · 𝑧 = 𝑦 · 𝑧 ∧ 𝑧 ̸= 0 ⇒ 𝑥 = 𝑦)
28
Beweis.
zu 1 1 ∈ 𝐾 * = 𝐾 ∖ {0}
zu 5 Wegen K2 ist (𝐾 * , ∙) eine abelsche Gruppe. Daher gilt die Aussage falls
𝑥, 𝑦 ∈ 𝐾 * = 𝐾 ∖ {0} ∧ 𝑧 ̸= 0. Falls 𝑥 = 0 ist, folgt
𝑥 = 0 ⇒ 0 = 0 · 𝑧 = 𝑦 · 𝑧 = 𝑦 = 0.
3
Satz 5.4
Wir definieren auf Z/𝑝Z eine Verknüpfung
Beweis.
2 Es ist klar, dass (Z/𝑝Z, +) eine abelsche Gruppe ist. Aus K1 für (Z/𝑝Z∖{0}, ∙) folgt
Kommutativität und Assoziativität und aufgrund von K3 ist das Distributivgesetz
klar erfüllt aufgrund der entsprechenden Eigenschaften der Verknüpfungen +, ∙ auf
Z.
29
Das neutrale Element in (Z/𝑝Z ∖ {0}, ∙) ist 1 = [1].
Nun müssen wir noch die Existenz eines inversen Elements zeigen. Hierfür brauchen
wir, dass 𝑝 eine Primzahl ist.
Behauptung: Für jedes 𝑛 ∈ Z/𝑝Z ∖ {0} ist die Abbildung
injektiv.
Sei [𝑛] · [𝑎] = [𝑛] · [𝑏], dann gilt 𝑛(𝑎 − 𝑏) ist durch 𝑝 teilbar. Da 𝑛 =
̸ [0], heißt das
aber, dass (𝑎 − 𝑏) durch 𝑝 teilbar ist, weil 𝑝 eine Primzahl ist. Also folgt [𝑎] = [𝑏].
Da Z/𝑝Z eine endliche Menge ist, ist [𝑛]∙ auch surjektiv, also bijektiv. Insbesondere
gibt es eine Unterabbildung, d.h. ein [𝑛′ ] ∈ Z/𝑝Z ∖ {0}, so dass
[𝑛] · [𝑛′ ] = 1.
Bemerkung. Ist 𝑝 nicht prim, so ist Z/𝑝Z kein Körper, aber immer noch ein Ring. Es
gibt dann Nullteiler, d.h. [𝑛], [𝑚] ∈ Z/𝑝Z ∖ {0}, so dass [𝑛] · [𝑚] = 0. Nämlich
𝑝 = 𝑎 · 𝑏 𝑎, 𝑏, ∈ N>1 ,
also [𝑎] ̸= [0], [𝑏] ̸= [0], aber [𝑎] · [𝑏] = [𝑝] = [0].
Definition 5.6
Seien (𝐾, +𝐾 , ∙𝐾 ) und (𝐿, +𝐿 , ∙𝐿 ) Körper. Eine Abbildung 𝑓 : 𝐾 → 𝐿, die ungleich der
konstanten Nullabbildung ist, nennt man einen Körperhomomorphismus, falls ∀𝑥, 𝑦 ∈ 𝐾
gilt:
𝑓 (𝑥 +𝐾 𝑦) = 𝑓 (𝑥) +𝐿 𝑓 (𝑦)
𝑓 (𝑥∙𝐾 𝑦) = 𝑓 (𝑥)∙𝐿 𝑓 (𝑦)
Ist 𝑓 bijektiv, so nennt man 𝑓 einen Körperisomorphismus und die Körper isomorph.
Wir schreiben (𝐾, +𝐾 , ∙𝐾 ) ∼
= (𝐿, +𝐿 , ∙𝐿 ).
30
Bemerkung. Seien (𝐾, +𝐾 , ∙𝐾 ) und (𝐿, +𝐿 , ∙𝐿 ) lediglich Ringe, nennt man Abbildungen
𝑓 : 𝐾 → 𝐿 mit diesen Eigenschaften Ringhomomorphismus.
Beispiel.
√
1) Q ⊂ Q[ 2] ⊂ R
2) Der Gruppenisomorphismus
𝜑:Z→𝐾
𝑛 ↦→ 𝑛 · 1𝐾 = 1𝐾 + 1𝐾 + ... + 1𝐾
⏟ ⏞
𝑛𝑚 𝑎𝑙
ein Ringhomomorphismus.
Definition 5.8
Die Charakteristik eines Körpers 𝐾 ist definiert als
{︃
0 𝑛 · 1𝐾 =
̸ 0 ∀𝑛 ∈ N
char(𝐾) =
𝑚𝑖𝑛{𝑛 ∈ N| 𝑛 · 1𝐾 = 0} sonst
Proposition 5.9
Beweis.
zu 1 Nehme an char(𝐾) = 𝑎 · 𝑏 𝑎, 𝑏 ∈ N>1 . Dann gilt nach Lemma 5.7
0 = 𝜑(𝑎𝑏) = 𝜑(𝑎) ∙
𝐾 𝜑(𝑏) =======⇒ 𝜑(𝑎) = 0 oder 𝜑(𝑏) = 0
𝐿𝑒𝑚𝑚𝑎 5.7
31
zu 2 für alle 𝑛 ∈ 𝑁 gilt
𝑛 · 1 = 𝑛 ̸= 0
2 Definier die imaginäre Einheit 𝑖 := (0, 1). Jede komplexe Zahl 𝑧 ∈ C lässt sich
schreiben als
𝑧 = (𝑥, 𝑦) = 𝑥 + 𝑖𝑦 = 𝑥 · (1, 0) + 𝑦 · (0, 1) = 𝑥 · 1𝐾 + 𝑖𝑦 = 𝑥 + 𝑖𝑦
Wir nennen
𝑥 = 𝑅𝑒(𝑧) den Realteil von 𝑧
𝑦 = 𝐼𝑚(𝑧) den Imaginärteil von 𝑧
Die imaginäre Einheit 𝑖 erfüllt:
𝑖2 = −1.
32
3 Die Abbildung
C→C
𝑧 = 𝑥 + 𝑖𝑦 ↦→ 𝑧¯ = 𝑥 − 𝑖𝑦
heißt komplexe Konjugation.
4 Proposition: Die komplexe Konjugation ist ein Körperhomomorphismus.
Insbesondere gilt: 𝑧 + 𝑤 = 𝑧¯ + 𝑤 ¯
𝑧𝑤 = 𝑧¯ · 𝑤¯
Weiterhin gilt: 𝑧¯ = 𝑧
𝑧 = 𝑧¯ ⇔ 𝑧 ∈ R ⊂ C
Wir haben
1
𝑅𝑒(𝑧) = (𝑧 + 𝑧¯)
2
1
𝐼𝑚(𝑧) = (𝑧 − 𝑧¯)
2𝑖
𝑧 𝑧¯ = 𝑥2 + 𝑦 2 ∈ R≥0 für alle 𝑧 = 𝑥 + 𝑖𝑦
𝑦 𝑧·𝑤
|𝑧||𝑤|
𝐼𝑚(𝑧) - 𝑧 = (𝑥, 𝑦) = 𝑥 + 𝑖𝑦
𝑤
𝛼 = 𝑎𝑟𝑔(𝑧)
𝛽 = 𝑎𝑟𝑔(𝑤)
| 𝑥
𝑅𝑒(𝑧)
𝑧¯ = (𝑥, −𝑦) = 𝑥 − 𝑖𝑦
33
7 Sei 𝑧 ∈ C ∖ {0}, 𝑧 = 𝑥 + 𝑖𝑦,
⃒𝑧 ⃒
⃒ ⃒=1 d.h. es gibt ein eindeutiges 𝑎 ∈ [0, 2𝜋), sodass
|𝑧|
=
𝑥2 + 𝑦 2
𝑧 = |𝑧|(cos 𝛼 + 𝑖 sin 𝛼).
|𝑧|2
Dieses 𝛼 nennt man Argument von 𝑧, man schreibt 𝛼 = 𝑎𝑟𝑔(𝑧).
8 Die Eulersche Formel besagt
cos 𝛼 + 𝑖 sin 𝛼 = 𝑒𝑖𝛼
d.h.
𝑧 = |𝑧|𝑒𝑖 𝑎𝑟𝑔(𝑧)
= |𝑧||𝑤|𝑒𝑖(𝑎𝑟𝑔(𝑧)+𝑎𝑟𝑔(𝑤))
9 Allgemein gilt:
Proposition:
Sei 𝐾 ein Körper und 𝜏 ∈ 𝐾 sodass 𝑥2 = 𝜏 keine Lösung in 𝐾 hat. Dann ist die
Menge 𝐿 = {𝐾 × 𝐾} mit der Addition
(𝑎, 𝑏) + (𝑐, 𝑑) = (𝑎 + 𝑐, 𝑏 + 𝑑)
und der Multiplikation
(𝑎, 𝑏) · (𝑐, 𝑑) = (𝑎𝑐 + 𝑏𝑑𝜏, 𝑎𝑑 + 𝑏𝑐)
√
wieder ein Körper. Man nennt das Element (0, 1) auch die Wurzel von 𝜏, 𝜏 , denn
(0, 1) · (0, 1) = (𝜏, 0).
Wir schreiben
√
𝐿 = 𝐾( 𝜏 )
√
(𝑎, 𝑏) = 𝑎 + 𝑏 𝜏
Beispiel. √
C = R( −1) 𝜏 = −1
C ist ein algebraisch abgeschlossener Körper, d.h. jede polynomiale Gleichung
z.B. 𝑥3 + 5𝑥2 + 3𝑥 = 0
hat eine Lösung.
Bemerkung. 𝑥3 + 5𝑥2 + 3𝑥 = 0 hat auch eine Lösung über R, aber z.B. 𝑥2 = −1
nicht.
34
6 Vektorräume
6.1 Definition
Definition 6.1
Sei 𝐾 ein Körper.
Ein Vektorraum über 𝐾 ist eine abelsche Gruppe (𝑉, +) zusammen mit einer Verknüpfung
∙ : 𝐾 ×𝑉 →𝑉
(𝑘, 𝑣) ↦−→ 𝑘 · 𝑣
Achtung: Wir verwenden + sowohl für die Vektorraum-Addition als auch für die Addition
in 𝐾 und ∙ für die skalare Multiplikation als auch für die Multiplikation in 𝐾.
Was gemeint ist, ergibt sich aus den involvierten Objekten.
Beispiel.
mit Vektorraum-Addition
35
2) Sei 𝑛 = 0, dann ist 𝐾 0 = 0 ein Vektorraum, der Nullvektorraum.
3) Sei 𝐾 ein Körper und 𝑋 eine Menge. Die Menge der Abbildungen Abb(𝑋, 𝐾) von
𝑋 nach 𝐾 mit der Vektorraum Addition
∙ : 𝐾 × Abb(𝑋, 𝐾) → Abb(𝑋, 𝐾)
(𝑘, 𝑓 ) ↦→ 𝑘 · 𝑓
(𝑘 · 𝑓 )(𝑥) = 𝑘 · 𝑓 (𝑥)
5) Sei 𝑉 ein 𝐾-Vektorraum und 𝐿 ⊂ 𝐾 ein Unterkörper, dann ist 𝑉 ein 𝐿-Vektorraum.
𝑉 ⊕ 𝑊 = {(𝑣, 𝑤) | 𝑣 ∈ 𝑉, 𝑤 ∈ 𝑊 }
mit
(𝑣, 𝑤) + (𝑣 ′ , 𝑤′ ) := (𝑣 + 𝑣 ′ , 𝑤 + 𝑤′ )
𝑘 · (𝑣, 𝑤) := (𝑘 · 𝑣, 𝑘 · 𝑤)
Bemerkung.
𝐾 ⊕ 𝐾 ⊕ · · · ⊕ 𝐾 = 𝐾 𝑛.
1 0𝐾 · 𝑣 = 0 für alle 𝑣 ∈ 𝑉
36
Beweis.
zu 1
0𝐾 · 𝑣 = (0𝐾 + 0𝐾 ) · 𝑣 = 0𝐾 · 𝑣 + 0𝐾 · 𝑣
V3
Da (𝑉, +) eine Gruppe ist, gilt daher 0𝐾 · 𝑣 = 0 (da das rechtsneutrale Element
eindeutig ist).
zu 2
𝑘 · 0 = 𝑘 · (0 + 0) = 𝑘 · 0 + 𝑘 · 0
V3
zu 3 Aus 1 und 2 folgt die Richtung „⇐“. Wir zeigen nun „⇒“.
Sei 𝑘 · 𝑣 = 0, aber 𝑘 ̸= 0. Dann gilt
𝑣 = 1𝐾 · 𝑣 = (𝑘 −1 𝑘) · 𝑣 = 𝑘 −1 · (𝑘 · 𝑣) = 𝑘 −1 · (0) = 0.
V1 2
zu 4
(𝑘 · 𝑣) + (−𝑘) · 𝑣 = (𝑘 + (−𝑘)) · 𝑣 = 0𝐾 · 𝑣 = 0
V3 1
6.2 Untervektorräume
Definition 6.3
Sei 𝑉 ein 𝐾-Vektorraum.
Eine Teilmenge 𝑊 ⊂ 𝑉 heißt Untervektorraum von 𝑉 falls gilt:
1 𝑊 ̸= ∅
37
Beispiel.
4 Seien 𝑎, 𝑏 ∈ R
𝑊𝑎,𝑏 = {(𝑥, 𝑦) ∈ R2 | 𝑎𝑥 + 𝑏𝑦 = 0} ist ein Untervektorraum von R2 .
𝑊 = {(𝑥, 𝑦) ∈ R2 | 𝑥2 = 𝑦} ⊂ R2
𝑊 = {(𝑥, 𝑦) ∈ R2 | 𝑥2 + 𝑦 2 = 1} ⊂ R2
sind nicht abgeschlossen bezüglich der Addition und der skalaren Multiplikation.
Satz 6.4
Sei 𝑉 ein 𝐾-Vektorraum, 𝐼 eine Indexmenge. Seien 𝑊𝑖 ⊂ 𝑉 Untervektorräume für alle
𝑖 ∈ 𝐼. Dann ist ⋂︁
𝑊 = 𝑊𝑖 = { 𝑤 | 𝑤 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼}
𝑖∈𝐼
ein Untervektorraum.
Beweis.
⇒ 0 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼
⇒ 0 ∈ 𝑊, also 𝑊 ̸= ∅
⇒ 𝑣 + 𝑤 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼
𝑊𝑖 Unter-
vektorraum
⇒ 𝑣+𝑤 ∈𝑊 .
38
3 Sei 𝑣 ∈ 𝑊 ⇒ 𝑣 ∈ 𝑊𝑖 für alle 𝑖 ∈ 𝐼
⇒ 𝑘 · 𝑣 ∈ 𝑊 für alle 𝑘 ∈ 𝐾 .
𝑊1 = R · (1, 0)
𝑊2 = R · (0, 1)
0 ̸= 𝑤1 ∈ 𝑊1 , 0 ̸= 𝑤2 ∈ 𝑊2
dann ist 𝑤1 + 𝑤2 ∈
/ 𝑊1 ∪ 𝑊2 .
Beweis.
Wir nehmen an: 𝑊1 ̸= 𝑊2 . Sei 𝑤2 ∈ 𝑊2 und 𝑤1 ∈ 𝑊1 ∖ 𝑊2 . Dann gilt
𝑤2 , 𝑤1 ∈ 𝑊1 ∪ 𝑊2 ⇒ 𝑤1 + 𝑤2 ∈ 𝑊1 ∪ 𝑊2 ,
𝑤2 = 𝑤1 + 𝑤2 + (−𝑤1 ) ∈ 𝑊1 ⇒ 𝑊2 ⊂ 𝑊1
Definition 6.6
Seien 𝑣1 , . . . , 𝑣𝑛 ∈ 𝑉 . Ein Vektor 𝑤 ∈ 𝑉 ist eine Linearkombination von 𝑣1 , . . . , 𝑣𝑛 , falls
es 𝑘1 , . . . , 𝑘𝑛 ∈ 𝐾 gibt, so dass
𝑤 = 𝑘1 𝑣1 , . . . , 𝑘𝑛 𝑣𝑛
39
Definition 6.7
Für eine Teilmenge 𝑆 ⊂ 𝑉 sei
Wir nennen ℒ(𝑆) die lineare Hülle von 𝑆 oder auch den von 𝑆 erzeugten
Untervektorraum von 𝑉 oder auch den Spann von 𝑆 (geschreiben Span(𝑆)).
ℒ ist offensichtlich ein Untervektorraum von 𝑉 . ℒ(𝑆) ist der kleinste Unterraum von 𝑉 ,
der 𝑆 enthält (Proposition 6.8). Daher gilt: Ist 𝑈 ein Untervektorraum von 𝑉 , dann ist
ℒ(𝑈 ) = 𝑈 .
Beispiel.
R3
𝑒1 = (1, 0, 0)
𝑒2 = (0, 1, 0)
𝑤 = (𝑎, 𝑏, 0) 𝑎, 𝑏 ∈ R
= 𝑎 · 𝑒1 + 𝑏 · 𝑒2 Linearkombination von 𝑒1 , 𝑒2
′
𝑤 = (0, 0, 1) ist keine Linearkombination von 𝑒1 , 𝑒2
Proposition 6.8
Sei 𝑆 ⊂ 𝑉 eine Teilmenge.
Sei
𝑊𝑆 := { 𝑈 | 𝑈 ist ein Untervektorraum von 𝑉 , der 𝑆 enthält }.
Dann ist ⋂︁
𝑈 = ℒ(𝑆).
𝑈 ∈𝑊𝑆
Beweis.
Zum einen gilt ℒ(𝑆) ∈ 𝑊𝑆 , daher
⋂︁
𝑈 ⊂ ℒ(𝑆).
𝑈 ∈𝑊𝑆
Andererseits, sei 𝑣 ∈ ℒ(𝑆). Dann gilt 𝑣 ist eine Linearkombination von Elementen in 𝑆,
also 𝑣 ∈ 𝑈 für alle 𝑈 ∈ 𝑊𝑆 (da 𝑈 ein Untervektorraum ist, der 𝑆 enthällt).
Also gilt ⋂︁ ⋂︁
𝑣∈ 𝑈, also ℒ(𝑆) ⊂ 𝑈.
𝑈 ∈𝑊𝑆 𝑈 ∈𝑊𝑆
Daher ⋂︁
ℒ(𝑆) = 𝑈.
𝑈 ∈𝑊𝑆
40
Lemma 6.9. Die lineare Hülle hat folgende Eigenschaften
1 𝑆 ⊂ ℒ(𝑆)
3 ℒ(ℒ(𝑆)) = ℒ(𝑆)
Definition 6.10
Eine Teilmenge 𝑆 ∈ 𝑉 heißt Erzeugendensystem von 𝑉 , falls ℒ(𝑆) = 𝑉 . Ein Vektorraum
𝑉 ist endlich erzeugt, falls es eine endliche Teilmenge 𝑇 ⊂ 𝑉 gibt, so dass ℒ(𝑇 ) = 𝑉 .
Beispiel.
𝑉 = R3
𝑆 = {𝑒1 , 𝑒2 } 𝑒1 = (1, 0, 0), 𝑒2 = (0, 1, 0)
ist kein Erzeugendensystem.
𝑇 = {𝑒1 , 𝑒2 , 𝑒3 } 𝑒1 = (1, 0, 0), 𝑒2 = (0, 1, 0), 𝑒3 = (0, 0, 1)
ist ein Erzeugendensystem.
′
𝑇 = {𝑒1 , 𝑒2 , 𝑒3 , 𝑣} 𝑒1 = (1, 0, 0), 𝑒2 = (0, 1, 0), 𝑒3 = (0, 0, 1), 𝑣 = (1, 1, 5)
ist ein Erzeugendensystem.
Definition 6.11
Sei 𝑆 ⊂ 𝑉 eine Teilmenge.
1 Ein Vektor 𝑣 ∈ 𝑉 ist linear abhängig von S, falls 𝑣 ∈ ℒ(𝑆). Andernfalls, also wenn
𝑣∈/ ℒ(𝑆), ist der Vektor 𝑣 linear unabhängig von 𝑆.
Beispiel.
41
Lemma 6.12. Sei 𝑆 ⊂ 𝑉 eine Teilmenge. Dann sind folgende Aussagen äquivalent:
1 𝑆 ist linear unabhängig
Beweis.
Daher gilt
𝑛
∑︁
𝑣1 = − (𝑘1 −1 𝑘𝑖 )𝑣𝑖 , also 𝑣1 ∈ ℒ(𝑆 ∖ {𝑣1 }).
𝑖=2
2 ⇒ 1 : Nehme an, 1 gilt nicht. Dann gibt es 𝑣1 ∈ 𝑆 der linear abhängig von 𝑆 ∖ {𝑣1 } ist.
Also gibt es Vektoren 𝑣2 , . . . , 𝑣𝑛 ∈ 𝑆 ungleich 𝑣1 und 𝑘2 , . . . , 𝑘𝑛 ∈ 𝐾, so dass
𝑛
∑︁
𝑣1 = 𝑘𝑖 𝑣𝑖
𝑖=1
2 ⇒ 3 : Nehme an 3 gilt nicht, d.h. es gibt ein 0 ̸= 𝑤 ⊂ ℒ(𝑆) mit zwei Darstellungen
𝑚
∑︁ 𝑛
∑︁
𝑘𝑗′ 𝑣𝑗′ =𝑤= 𝑘𝑖 𝑣𝑖 ,
𝑗=1 𝑖=1
42
die nicht Permutationen voneinander sind. Betrachte
{𝑣1 , . . . 𝑣𝑛 } ∪ {𝑣1′ , . . . 𝑣𝑚
′
}
{𝑣1 , . . . 𝑣𝑛 } ∪ {𝑣1′ , . . . 𝑣𝑚
′
} = {^
𝑣1 , . . . 𝑣^𝑘 }.
Dann gilt
𝑚
∑︁ 𝑛
∑︁ 𝑘
∑︁
0= 𝑘𝑗′ 𝑣𝑗′ − 𝑘𝑖 𝑣𝑖 = 𝑘^𝑙 𝑣^𝑙 .
𝑗=1 𝑖=1 𝑙=1
wobei mindestens ein 𝑘𝑖 von 0𝑘 verschieden ist. Wir können ohne Beschränkung
der Allgemeinheit (OBdA) annhemen, dass 𝑘1 ̸= 0. Dann gilt
𝑛
∑︁
0 ̸= 𝑤 = 𝑘1 𝑣1 = − 𝑘𝑖 𝑣𝑖 .
𝑖=2
Definition 6.13
𝑆 ⊂ 𝑉 ist linear unabhängig und 0 ̸= 𝑣 ∈
/ ℒ(𝑆). Dann ist 𝑆 ′ = 𝑆 ∪ {𝑣} linear unabhängig.
Beweis.
Falls 𝑆 ′ nicht linear unabhängig wäre, so gäbe es 𝑘, 𝑘1 , . . . , 𝑘𝑖 ∈ 𝐾, die nicht alle null
sind und 𝑣𝑖 ∈ 𝑆 paarweise verschieden mit
𝑛
∑︁
𝑘𝑣 + 𝑘𝑖 𝑣𝑖 = 0.
𝑖=1
Falls 𝑘 = 0, so folgt aus der linearen Unabhängigkeit von 𝑆, dass 𝑘𝑖 = 0 für alle 1 ≤ 𝑖 ≤ 𝑛.
Also 𝑘 ̸= 0 und
𝑛
∑︁
𝑣= −𝑘 −1 𝑘𝑖 𝑣𝑖 .
𝑖=1
Das bedeutet aber 𝑣 ∈ ℒ(𝑆). Dies ist ein Widerspruch zur Annahme.
43
Definition 6.14
Eine Teilmenge 𝑆 ⊂ 𝑉 heißt Basis von 𝑉 , wenn 𝑆 ein linear unabhängiges Erzeugenden-
system von 𝑉 ist.
Proposition 6.15
Eine Teilmenge 𝑆 ⊂ 𝑉 ist eine Basis genau dann, wenn sich jedes Element eindeutig (bis
auf Permutation) schreiben lässt als
𝑛
∑︁
𝑉 = 𝑘𝑖 𝑣𝑖
𝑖=0
Beweis.
„⇒“ Sei 𝑆 eine Basis, dann ist 𝑆 ein Erzeugendensystem, also lässt sich 𝑣 schreiben als
𝑛
∑︁
𝑣= 𝑘𝑖 𝑣𝑖
𝑖=1
Nun wissen wir aber nicht nur, dass 𝑆 ein Erzeugendensystem ist, sondern wir
wissen auch, dass 𝑆, weil es eine Basis ist, linear unabhängig ist.
𝑆 ist auch linear unabhängig, also folgt mit dem Lemma 6.12, dass diese Darstellung
eindeutig (bis auf Permutation) ist.
Damit haben wir die eine Richtung bewiesen. Wenn 𝑆 eine Basis ist, dann können
wir jedes Element eindeutig als Linearkombination von paarweise verschiedenen
Elementen aus 𝑆 schreiben.
„⇐“ Hat umgekehrt jedes 𝑣 ∈ 𝑉 eine solche Darstellung, so ist 𝑆 ein Erzeugendensystem.
Aus der Eindeutigkeit (bis auf Permutation) folgt mit dem Lemma 6.12, dass es
linear unabhängig ist. Also ist 𝑆 eine Basis.
𝑒𝑖 = (0, . . . , 0, 1, 0, . . . , 𝑝) für 1 ≤ 𝑖 ≤ 𝑛
deren Einträge 0 sind außer an der 𝑖-ten Stelle, wo der Eintrag 1 ist. Dann ist die Menge
𝐵 = {𝑒1 , . . . , 𝑒𝑛 } eine Basis von 𝐾 𝑛 . Wir nennen 𝐵 die Standardbasis.
Beweis.
Die Menge 𝐵 erzeugt 𝐾 𝑛 , denn
𝑛
∑︁
(𝑘1 , ..., 𝑘𝑛 ) = 𝑘𝑖 𝑒𝑖
𝑖=1
44
Jedes Element in 𝐾 𝑛 ist ein 𝑛-Tupel ∑︀
(𝑘 1 , ..., 𝑘 𝑛 ). Dieses 𝑛-Tupel ist ganz klar die Linear-
kombination, die gegeben ist durch 𝑛𝑖=1 𝑘𝑖 𝑒𝑖 . Damit haben wir gezeigt, die Menge 𝐵
erzeugt 𝐾 𝑛 .
Die Menge 𝐵 ist linear unabhängig, denn
𝑛
∑︁
𝑘𝑗 ∈𝐾
⃒
ℒ(𝐵 ∖ {𝑒𝑖 }) = { 𝑘𝑗 𝑒𝑗 | 𝑘𝑗 ∈ 𝐾} = {(𝑘1 , . . . , 𝑘𝑛 ) ⃒ 𝑘𝑖 =0 },
𝑗=1
𝑗̸=𝑖
also 𝑒𝑖 ∈
/ ℒ(𝐵 ∖ {𝑒𝑖 }) für alle 1 ≤ 𝑖 ≤ 𝑛. Also ist 𝐵 linear unabhängig.
Lemma 6.17. Sei 𝑆 ⊂ 𝑉 eine endliche Teilmenge, die 𝑉 erzeugt. Dann gibt es eine
Teilmenge 𝐵 ⊂ 𝑉 , die eine Basis von 𝑉 ist.
Beweis.
Sei 𝑀 eine Menge aller Teilmengen von 𝑆, die 𝑉 erzeugen, also
𝑀 := {𝑈 ⊂ 𝑆 | ℒ(𝑈 ) = 𝑉 }.
Dann ist 𝑀 nicht leer, da 𝑆 ∈ 𝑀 und 𝑀 besteht aus endlichen Mengen. Sei 𝐵 ∈ 𝑀 eine
Teilmenge von 𝑆 mit der kleinsten Anzahl von Elementen, d.h.
also 𝐵 ′ ∈ 𝑀 . Dies ist ein Widersruch zur Wahl von 𝐵, da |𝐵 ′ | < |𝐵|.
Korollar 6.18. Jeder Vektorraum, der ein endliches Erzeugendensystem besitzt, besitzt
auch eine endliche Basis.
Definition 6.19
Ein Vektorraum heißt endlich dimensional, wenn er eine endliche Basis hat.
45
Bemerkung. Mit Hilfe des Auswahlaxioms lässt sich das Lemma 6.17 auch für nicht
endliche Erzeugendensysteme 𝑆 ⊂ 𝑉 beweisen.
So lässt sich zeigen, dass jeder Vektorraum, nicht nur endlich-dimensioanle Vektorräume,
eine Basis hat. Wenn 𝑉 ein nicht endlich-dimensionaler Vektorraum über 𝐾 ist, schreiben
wir dim(𝑉 ) = ∞.
Beispiel. Vektorraum der stetigen Funktionen von R nach R.
Falls 𝑘 = 0, so ist 𝑏 ∈ ℒ(𝑆 ′ ), aber das ist ein Widerspruch zur linearen Unabhängigkeit
von 𝑆. Also ist 𝑘 ≥ 1. Also gilt
𝑘
⏞ ⏟
|𝑇 | − |𝑆| = |𝑇 | − |𝑆 ′ | −1
≥0
Also gilt 1 .
Da 𝑆 linear unabhängig ist, muss auch mindestens ein 𝑎𝑖 ∈ 𝐾 ungleich null sein. OBdA
nehmen wir 𝑎𝑘 ̸= 0 an.
Dann gilt (𝑏 = 𝑤 + 𝑘𝑖=1 𝑎𝑖 𝑡𝑖 )
∑︀
𝑘−1
∑︁
−1
𝑡𝑘 = 𝑎𝑘 (𝑏 − 𝑤) − 𝑎𝑘 −1 𝑎𝑖 𝑡𝑖
𝑖=1
also 𝑡𝑘 ∈ ℒ(𝑆 ∪ {𝑡1 , . . . 𝑡𝑘−1 )}. Also wird 𝑉 von der Menge 𝑆 ∪ {𝑡1 , . . . 𝑡𝑘−1 )} erzeugt.
Damit ist 2 bewiesen.
46
Korollar 6.21. Zwei Basen eines endlich dimensionalen Vektorraums haben die gleiche
Anzahl von Elementen.
Beweis.
𝑉 ist endlich dimensional, daher gibt es eine Basis 𝐵 ⊂ 𝑉 die aus endlich vielen Elementen
besteht. Sei 𝐴 eine andere Basis, dann ist 𝐴 linear abhängig. Also nach Satz 6.20
|𝐴| ≤ |𝐵|
Andererseits ist auch 𝐵 linear unabhängig und 𝐴 ein Erzeugendensystem. Also gilt nach
Satz 6.20
|𝐵| ≤ |𝐴|
Also gilt |𝐴| = |𝐵|.
Definition 6.22
Die Anzahl der Elemente einer Basis eines endliche dimensionalen Vektorraums 𝑉 über
𝐾 wird die Dimension von 𝑉 genannt. Wir schreiben dim(𝑉 ).
Beispiel.
1) dim(𝐾 𝑛 ) = 𝑛
2) Dimension von C als C-Vektorraum ist 1, 𝐵 = {(1, 0)}. Dimension von C als
R-Vektorraum ist 2, Basis 𝐵 = {(1, 0), (0, 1)}.
Korollar 6.23. Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum. Sei 𝑆 ⊂ 𝑉 linear unab-
hängig und 𝑇 ⊂ 𝑉 ein Erzeugendensystem von 𝑉 . Dann gilt:
1 |𝑆| ≤ dim(𝑉 )
3 |𝑇 | ≥ dim(𝑉 )
Beweis.
1 𝑉 ist endlich dimensional, also existiert eine Basis 𝐵 mit |𝐵| = 𝑑𝑖𝑚(𝑉 ). Da 𝐵 den
Vektorraume erzeugt, gilt nach Satz 6.20,
47
2 Nach Satz 6.20 kann 𝑆 durch |𝐵| − |𝑆| Elementen zu einem Erzeugendensystem
ergänzt werden. Daher gilt, wenn |𝐵|−|𝑆| = 0 ist, dass 𝑆 selbst ein Erzeugendensys-
tem ist, also 𝑆 ist eine Basis. Dies zeigt „⇐“, die Richtung „⇒“ ist in Korollar 6.21
gezeigt.
3 Wende Satz 6.20 auf Basis 𝐵, also linear unabhängige Menge und 𝑇 Erzeugenden-
system an, also
dim(𝑉 ) = |𝐵| ≤ |𝑇 |
4 Nach Lemma 6.17 gibt es eine Teilmenge 𝑇 ′ ⊂ 𝑇 die eine Basis ist.
„⇐“ Falls 𝑇 ′ aber eine echte Teilmenge 𝑇 ′ ( 𝑇 wäre, so wäre
|𝑇 ′ | < |𝑇 | = dim(𝑉 ).
5 Nach Satz 6.20 kann 𝑆 durch Ergänzung von |𝐵| − |𝑆| zu einem Erzeugendensystem
𝑆 ′ ergänzt werden. Es gilt
Lemma 6.24. Sei 𝑉 ein 𝐾-Vektorraum und 𝑛 ∈ N, so dass für jede linear unabhängige
Menge 𝑆 ⊂ 𝑉 gilt |𝑆| ≤ 𝑛. Dann ist 𝑉 endlich dimensional.
Beweis.
Sei 𝑆 eine linear unabhängige Menge mit |𝑆| = 𝑛. Behauptung: Dann ist 𝑆 ein Erzeu-
gendensystem. Denn andernfalls gäbe es ein
𝑣 ∈ 𝑉 ∖ ℒ(𝑆)
𝑆 ′ = 𝑆 ∪ {𝑣}
48
Proposition 6.25
Sei 𝑉 ein endlich dimensionaler Vektorraum über 𝐾, und 𝑊 ⊂ 𝑉 ein Untervektorraum.
Dann ist 𝑊 nach Lemma 6.24 endlich dimensional und dim(𝑊 ) ≤ dim(𝑉 ), mit Gleichheit
genau dann, wenn 𝑊 = 𝑉 .
Beweis.
Sei 𝑆 ⊂ 𝑊 linear unabhängig, dann ist 𝑆 ⊂ 𝑊 ⊂ 𝑉 linear unabhängig. Daher
|𝑆| ≤ dim(𝑉 )
⇒ 𝑊 ist endlich dimensional. Sei 𝐵 eine Basis von 𝑊 , dann ist 𝐵 ⊂ 𝑉 linear unabhängig.
⇒ dim(𝑊 ) = |𝐵| ≤ dim(𝑉 ).
Bei Gleichheit gilt also
|𝐵| = dim(𝑉 ).
Daher ist 𝐵 auch eine Basis von 𝑉 , also
𝑉 = ℒ(𝐵) = 𝑊.
Sei 𝑎 = dim(𝑈 ∩ 𝑊 )
𝑏 = dim(𝑈 ) − dim(𝑈 ∩ 𝑊 )
𝑐 = dim(𝑊 ) − dim(𝑈 ∩ 𝑊 )
49
Behauptung: 𝐴 ∪ 𝐵 ∪ 𝐶 = {𝑣1 , . . . 𝑣𝑎 , 𝑢1 , . . . 𝑢𝑏 , 𝑤1 , . . . 𝑤𝑐 } ist eine Basis von 𝑈 + 𝑊 .
1 ℒ(𝐴 ∪ 𝐵 ∪ 𝐶) = 𝑈 + 𝑊 .
Sei 𝑥 ∈ 𝑈 + 𝑊 . Dann kann 𝑥 in der Form 𝑥 = 𝑢 + 𝑤 mit 𝑢 ∈ 𝑈 und 𝑤 ∈ 𝑊
dargestellt werden. Wir können
𝑎
∑︁ 𝑏
∑︁
𝑢= 𝑘𝑖 𝑣𝑖 + 𝑙𝑗 𝑢𝑗
𝑖=1 𝑗=1
𝑎
∑︁ 𝑐
∑︁
𝑤= 𝑘𝑖′ 𝑣𝑖 + 𝑚𝑗 𝑤𝑗
𝑖=1 𝑗=1
schreiben. Also
𝑎
∑︁ 𝑏
∑︁ 𝑐
∑︁
𝑢+𝑤 = (𝑘𝑖 + 𝑘𝑖′ )𝑣𝑖 + 𝑙𝑗 𝑢𝑗 + 𝑚𝑙 𝑤𝑙
𝑖=1 𝑗=1 𝑙=1
𝛼1 , . . . , 𝛼𝑎 , 𝛽1 , . . . , 𝛽𝑏 , 𝛾1 , . . . , 𝛾𝑐 ∈ 𝐾,
also
𝑎
∑︁ 𝑏
∑︁ 𝑐
∑︁
𝑈∋ 𝛼𝑖 𝑣𝑖 + 𝛽𝑗 𝑢𝑗 = − 𝛾𝑙 𝑤𝑙 ∈ 𝑊 ~
𝑖=1 𝑗=1 𝑙=1
⏟ ⏞ ⏟ ⏞
∈ 𝑈 ∩𝑊 ∈ 𝑈 ∩𝑊
Da gilt
𝑐
∑︁
− 𝛾𝑙 𝑤𝑙 ∈ 𝑈 ∩ 𝑊 = ℒ(𝐴),
𝑙=1
existieren 𝛿𝑖 ∈ 𝐾, so dass
𝑎
∑︁ 𝑐
∑︁ 𝑎
∑︁ 𝑐
∑︁
0 · 𝑣𝑖 + 𝛾𝑙 𝑤𝑙 = 𝛿𝑖 𝑣𝑖 + 0 · 𝑤𝑙 ∈ 𝑊
𝑖=1 𝑙=1 𝑖=1 𝑙=1
𝛾1 = 𝛾2 = · · · = 𝛾𝑐 = 0.
50
Also
𝑎
∑︁ 𝑏
∑︁
𝛼𝑖 𝑣𝑖 + 𝛽𝑗 𝑢𝑗 = 0.
𝑖=1 𝑗=1
𝛼1 = · · · = 𝛼𝑎 = 0 = 𝛽1 = · · · = 𝛽𝑏 .
Das ist ein Widerspruch zur Annahme, dass 𝐴 ∪ 𝐵 ∪ 𝐶 linear abhängig ist. Also ist
𝐴 ∪ 𝐵 ∪ 𝐶 linear unabhängig, also eine Basis von 𝑈 + 𝑊 . Also gilt:
dim(𝑈 + 𝑊 ) = |𝐴 ∪ 𝐵 ∪ 𝐶| =𝑎+𝑏+𝑐
dim(𝑈 ) = |𝐴 ∪ 𝐵| =𝑎+𝑏
dim(𝑊 ) = |𝐴 ∪ 𝐶| =𝑎+𝑐
dim(𝑈 ∩ 𝑊 ) = |𝐴| =𝑎
also
dim(𝑈 + 𝑊 ) + dim(𝑈 ∩ 𝑊 ) = 2𝑎 + 𝑏 + 𝑐 = dim(𝑈 ) + dim(𝑊 )
Definition 6.27
Sei 𝑈 ⊂ 𝑉 ein Untervektorraum. Ein Untervektorraum 𝑈 ′ ⊂ 𝑉 heißt Komplement zu 𝑈 ,
wenn gilt
𝑈 ∩ 𝑈 ′ = {0} und 𝑈 + 𝑈 ′ = 𝑉.
Proposition 6.28
Sei 𝑉 ein endlich dimensionaler Vektorraum und 𝑈 ⊂ 𝑉 ein Untervektorraum. Dann
existiert ein Komplement 𝑈 ′ zu 𝑈 .
Beweis.
Sei {𝑢1 , . . . , 𝑢𝑘 } eine Basis von 𝑈 . Wir können dies zu einer Basis von 𝑉 ergänzen.
Setze
𝑈 ′ = ℒ({𝑢′1 , . . . , 𝑢′𝑙 }).
51
Beispiel. Seien 𝑉, 𝑊 Vektorräume über 𝐾. Die äußere direkte Summe
𝑉 ⊕𝑊
Es gilt:
dim(𝑉 ⊕ 𝑊 ) = dim(𝑉 ) + dim(𝑊 )
Warum?
Sei 𝐵𝑣 = {𝑣1 , . . . , 𝑣𝑛 } eine Basis von 𝑉 und 𝐵2 = {𝑤1 , . . . , 𝑤𝑛 } eine Basis von 𝑊 .
Dann ist
𝐵𝑉 ⊕𝑊 = {(𝑣1 , 0), . . . , (𝑣𝑛 , 0), (0, 𝑤1 ), . . . , (0, 𝑤𝑛 )}
eine Basis von 𝑉 ⊕ 𝑊 .
Insbesondere gilt
Beispiel.
𝑓 :𝐾→𝐾
𝑥 ↦→ 𝑘𝑥
52
2) Betrachte 𝐾 𝑛 :
𝑓 : 𝐾𝑛 → 𝐾
𝑥 = (𝑥1 , . . . , 𝑥𝑛 ) ↦→ 𝑎1 𝑥1 + · · · + 𝑎𝑛 𝑥𝑛
3) Komplexe Konjugation in C
𝑓 :C→C
𝑧 ↦→ 𝑧¯
=
𝑥 + 𝑖𝑦 ↦→ 𝑥 − 𝑖𝑦
4) Sei 𝑋 eine Menge, 𝐾 ein Körper. Abb(𝑋, 𝐾) sind dann ein 𝐾-Vektorraum. Die
Auswertungsabbildung für 𝑥 ∈ 𝑋
Φ𝑥 : Abb(𝑋, 𝐾) → 𝐾
𝑓 ↦→ 𝑓 (𝑥)
ist 𝐾-linear.
5) Die Abbildung
ist eine R-lineare Abbildung, wobei 𝐶 ∞ (R, R) die Menge der glatten Funktionen
auf R, versehen mit der Struktur eines Vektorraums, ist.
6) Die Identität
𝑖𝑑 : 𝑉 → 𝑉
∈
𝑥 ↦→ 𝑥
ist linear.
53
Definition 6.30
Sei 𝑓 : 𝑉 → 𝑊 linear, so heißt 𝑓
3 Isomorphismus, falls 𝑓 bijektiv ist. Wir nennen 𝑉 und 𝑊 dann auch isomorph,
𝑉 ∼= 𝑊.
4 Endomorphismus, falls 𝑉 = 𝑊 .
Proposition 6.31
Seien 𝑓, 𝑔 : 𝑉 → 𝑊 lineare Abbildungen, dann sind die Abbildungen
linear. Insbesondere ist die Menge aller linearen Abbildungen von 𝑉 nach 𝑊 ein 𝐾-
Vektorraum. Wir schreiben
Hom𝐾 (𝑉, 𝑊 ).
(Die Vektorraumaddition und skalare Multiplikation sind durch 𝑓 + 𝑔 und 𝑘 · 𝑓 wie oben
definiert.)
Proposition 6.32
Seien 𝑉, 𝑊 𝐾-Vektorräume. Sei 𝑓 : 𝑉 → 𝑊 eine lineare Abbildung. Dann gilt
3 Die Einschränkung einer linearen Abbildung auf einen Untervektorraum ist linear.
Beweis.
𝑓 (𝑘1 𝑥1 ) = 𝑘1 𝑓 (𝑥1 )
54
Induktionsschritt: Wir nehmen an, de Aussage gilt für alle 𝑙 ≤ 𝑛. Es folgt:
𝑛+1
∑︁ 𝑛
∑︁
𝑓( 𝑘 𝑖 𝑥𝑖 ) = 𝑓( 𝑘𝑖 𝑥𝑖 + 𝑘𝑛+1 𝑥𝑛+1 )
𝑓 linear
𝑖=1 𝑖=1
𝑛
∑︁
= 𝑓( 𝑘𝑖 𝑥𝑖 ) + 𝑓 (𝑘𝑛+1 𝑥𝑛+1 )
𝑓 linear
𝑖=1
𝑛
∑︁
= 𝑘𝑖 𝑓 (𝑥𝑖 ) + 𝑘𝑛+1 𝑓 (𝑥𝑛+1 )
IA,
𝑓 linear 𝑖=1
𝑛+1
∑︁
= 𝑘𝑖 𝑓 (𝑥𝑖 )
𝑓 linear
𝑖=1
𝑔 𝑓
2 Seien 𝑈 → − 𝑊 lineare Abbildungen. Für 𝑥, 𝑦 ∈ 𝑈, 𝑘 ∈ 𝐾 gilt
− 𝑉 →
(𝑓 ∘ 𝑔)(𝑥 + 𝑦)=𝑓 (𝑔(𝑥 + 𝑦))=𝑓 (𝑔(𝑥)+ 𝑔(𝑦))=𝑓 (𝑔(𝑥))+ 𝑓 (𝑔(𝑦))=(𝑓 ∘ 𝑔)(𝑥)+ (𝑓 ∘ 𝑔)(𝑦)
3 Ist offensichtlich, weil Verträglichkeit bezüglich der Addition und skalaren Multipli-
kation nun nur für Elemente des Untervektorraums gefordert ist.
Proposition 6.33
Seien 𝑉, 𝑊 endlich dimensional mit Basen 𝐵𝑉 = {𝑣1 , . . . , 𝑣𝑛 } und 𝐵𝑊 = {𝑤1 , . . . , 𝑤𝑚 }.
Dann gilt:
55
Beweis.
1 Da ℒ(𝐵) = 𝑉 ist klar, dass 𝑓 : 𝑉 → 𝑊 durch die Bilder 𝑓 (𝑣1 ), . . . , 𝑓 (𝑣𝑛 ) der
Basisvektoren bestimmt ist (Proposition 6.32 1 ). Ist 𝑓 dadurch eindeutig
festgelegt?
Nehme an 𝑔 : 𝑉 → 𝑊 ist linear mit
Dann gilt
also 𝑔 = 𝑓 .
2 Wir wollen zeigen, dass die linearen Abbildungen
1≤𝑖≤𝑛
𝑓𝑖,𝑎 : 𝑉 → 𝑊, 1≤𝑎≤𝑚
𝑛
∑︁
𝑘𝑖 𝑣𝑖 = 𝑣 ↦→ 𝑘𝑖 𝑤𝑎
𝑖=1
genau 𝑣𝑖 auf 𝑢𝑖 ab, für alle 1 ≤ 𝑖 ≤ 𝑛. Nun zeigen wir, dass { 𝑓𝑖,𝑎 | 𝑖=1,...,𝑛
𝑎=1,...,𝑚 }
linear unabhängig ist. Sei
∑︁
𝑓= 𝑦𝑖,𝑎 𝑓𝑖,𝑎 = 0 mit 𝑦𝑖,𝑎 ∈ 𝐾.
𝑖=1,...,𝑛
𝑎=1,...,𝑚
56
Dann gilt für alle 1 ≤ 𝑗 ≤ 𝑛
∑︁ 𝑚
∑︁
0 = 𝑓 (𝑣𝑗 ) = 𝑦𝑖,𝑎 𝑓𝑖,𝑎 (𝑣𝑗 ) = 𝑦𝑗,𝑎 𝑤𝑎 .
𝑎=1,...,𝑚 𝑎=1
𝑖=1,...,𝑛
linear unabhängig und bilden eine Basis von Hom𝐾 (𝑉, 𝑊 ). Als Konsequenz
erhalten wir die Dimensionsformel
Proposition 6.34
Sei 𝑓 : 𝑉 → 𝑊 linear. Seinen 𝑋 ⊂ 𝑉 und 𝑌 ⊂ 𝑊 Untervektorräume. Dann ist
Beweis.
𝑓 (𝑣𝑖 ) = 𝑦𝑖 ∈ 𝑌.
57
Definition 6.35
Sei 𝑓 : 𝑉 → 𝑊 linear.
Proposition 6.36
Sei 𝑓 : 𝑉 → 𝑊 linear. Dann gilt:
Beweis.
√
1 ist klar .
Satz 6.37
Sei 𝑉 endlich dimensional und 𝑓 : 𝑉 → 𝑊 linear. Dann ist auch im(𝑓 ) = im(𝑉 ) endlich
dimensional, und
dim(𝑉 ) = dim(ker(𝑓 )) + dim(im(𝑓 )).
Insbesondere ist 𝑓 injektiv, wenn
Beweis.
Sei 𝐵 eine Basis von 𝑉 und 𝐴 eine Basis von ker(𝑓 ) ⊂ 𝑉 . Dann kann man 𝐴 durch
Hinzufügen von |𝐵| − |𝐴| Elementen zu einer Basis von 𝑉 ergänzen. Sei 𝑆 die Menge
dieser Elemente.
Beahuptung: 𝑓 (𝑆) ist eine Basis von im(𝑓 ).
Sei dazu 𝐴 = {𝑥1 , . . . , 𝑥𝑛−𝑑 }, 𝑆 = {𝑥𝑛−𝑑+1 , . . . , 𝑥𝑛 }.
58
Zeige zuerst: 𝑓 (𝑆) erzeugt im(𝑓 ):
Sei also 𝑤 ∈ im(𝑓 ). Dann ∃ 𝑘𝑖 ∈ 𝐾, 1 ≤ 𝑖 ≤ 𝑛, so dass
𝑛
∑︁ 𝑛
∑︁ 𝑛
∑︁
𝑤 = 𝑓( 𝑘𝑖 𝑥𝑖 ) = 𝑘𝑖 𝑓 (𝑥𝑖 ) = 𝑘𝑖 𝑓 (𝑥𝑖 ) ∈ ℒ(𝑓 (𝑆)).
𝑖=1 𝑖=1 𝑖=𝑛−𝑑+1
also 𝑛
∑︁
𝑘𝑖 𝑥𝑖 ∈ ker(𝑓 ).
𝑖=𝑛−𝑑+1
Nun ist aber 𝐴 = {𝑥1 , . . . , 𝑥𝑛−𝑑 } eine Basis von ker(𝑓 ). Also gilt es existieren 𝑘1 , . . . , 𝑘𝑛−𝑑 ,
so dass
𝑛
∑︁ 𝑛−𝑑
∑︁
𝑘 𝑖 𝑥𝑖 = − 𝑘𝑖 𝑥𝑖 ,
𝑖=𝑛−𝑑+1 𝑖=1
also 𝑛
∑︁
𝑘 𝑖 𝑥𝑖 = 0
𝑖=1
aber da {𝑥1 , . . . , 𝑥𝑛 } eine Basis von 𝑉 ist, also linear unabhängig, gilt daher 𝑘𝑖 = 0 für
alle 1 ≤ 𝑖 ≤ 𝑛. Insbesondere also für 𝑛 − 𝑑 + 1 ≤ 𝑖 ≤ 𝑛. Daraus folgt: 𝑓 (𝑆) ist linear
unabhängig.
Also: 𝑓 (𝑆) ist eine Basis von im(𝑓 ), also ist im(𝑓 ) endlich dimensional und
dim(𝑉 ) = dim(ker(𝑓 )) + dim(im(𝑓 )).
Korollar 6.38. Eine lineare Abbildung 𝑓 : 𝑉 → 𝑊 zwischen eindlich dimensionalen
Vektorräumen ist ein Isomorphismus genau dann, wenn
dim(𝑉 ) = dim(𝑊 ), und
𝑓 ein Epimorphismus oder ein Monomorphismus ist.
Beweis.
„⇐“ Sei dim(𝑉 ) = dim(𝑊 ) = 𝑑
. . . und 𝑓 : 𝑉 → 𝑊 ein Monomorphismus, so gilt
dim(ker(𝑓 )) = 0 ⇒ dim(im(𝑓 )) = 𝑑
also folgt aus im(𝑓 ) ⊂ 𝑊 ein Untervektorraum der gleichen Dimension ist,
dass
im(𝑓 ) = 𝑓 (𝑉 ) = 𝑊,
also 𝑓 surjektiv.
59
. . . und 𝑓 : 𝑉 → 𝑊 ein Epimorphismus. Dann gilt
dim(im(𝑓 )) = dim(𝑊 ) = 𝑑.
Also
dim(ker(𝑓 )) = 0.
Also
ker(𝑓 ) = {0},
also 𝑓 injektiv.
Definition 6.39
Sei 𝑉 endlich dimensional und 𝑓 : 𝑉 → 𝑊 linear. Dann nennt man die Dimension des
Bildes von 𝑓 auch den Rang von 𝑓
Satz 6.40
Zwei endlich dimensionale Vektorräume sind genau dann isomorph, wenn ihre Dimensio-
nen übereinstimmen. Insbesondere sind für alle 𝑛 ∈ N0 alle Vektorräume der Dimension
𝑛 isomorph zu 𝐾 𝑛 .
Wir nennen 𝑉, 𝑊 isomorph, falls es einen Isomorphismus 𝑓 : 𝑉 → 𝑊 gibt.
Beweis.
Sei 𝑉 ein 𝐾-Vektorraum der Dimension 𝑛. Wähle eine Basis 𝐵 = {𝑣1 , . . . , 𝑣𝑛 }. Definiere
eine lineare Abbildung
𝑖𝐵 : 𝐾 𝑛 → 𝑉
𝑛
∑︁
(𝑘1 , . . . , 𝑘𝑛 ) ↦→ 𝑘𝑖 𝑣𝑖
𝑖=1
Dann ist
ker(𝑖𝐵 ) = {(0, . . . , 0) = 0},
also
𝐾𝑜𝑟𝑜𝑙𝑙𝑎𝑟 6.38
dim(𝑉 ) = dim(𝐾 𝑛 ) ========⇒ 𝑖𝐵 ist ein Isomorphismus.
60
Also jeder Vektorraum der Dimension 𝑛 ist isomorph zu 𝐾 𝑛 , also folgt daraus falls 𝑉, 𝑊
Vektorräume mit
dim(𝑉 ) = dim(𝑊 ) = 𝑛
sind, dass
𝑉 ∼
= 𝐾𝑛 und 𝑊 ∼
= 𝐾 𝑛,
also
𝑉 ∼
= 𝑊.
Aus Korollar 6.38 folgt, falls
dim(𝑉 ) ̸= dim(𝑊 ) ⇒ 𝑉 ∼
̸= 𝑊.
Wichtig: Der Isomorphismus zwischen 𝐾 𝑛 und 𝑉 hängt von der Wahl der Basis 𝐵 ab. Er
ist nicht kanonisch!
Übung.
Sei 𝐺 eine Gruppe und 𝐻 ⊂ 𝐺 eine Untergruppe. Wir definieren eine Äquivalenzrelation
∼𝐻 auf 𝐺:
1 𝑔 ∼𝐻 𝑔, da 𝑔 −1 · 𝑔 = 𝑒𝐺 = 𝑒𝐻 ∈ 𝐻.
−1
2 𝑔 ∼𝐻 𝑔 ′ ⇒ 𝑔 ′ ∼𝐻 𝑔, da 𝑔 ′ −1 · 𝑔 = (𝑔 −1 · 𝑔 ′ ) und 𝐻 eine Untergruppe ist.
Definition 6.41
Die Menge der Äquivalenzklassen von ∼𝐻 bezeichnen wir mit 𝐺/𝐻. Die Äquivalenzklasse
von 𝑔 ∈ 𝐺 ist
𝑔𝐻 = { 𝑔 ′ = 𝑔ℎ ∈ 𝐺 | ℎ ∈ 𝐻 }.
Wir nennen die Äquivalenzklassen 𝑔𝐻 die Linksnebenklasse zu H.
Proposition 6.42
Sei 𝐺 abelsch und 𝐻 ⊂ 𝐺. Dann gilt:
Die Menge 𝐺/𝐻 der Linksnebenklassen zu 𝐻 wird durch die Verknüpfung
61
Beweis.
Die Verknüpfung ist wohldefiniert.
Zu zeigen: Sei 𝑔1 , 𝑔2 ∈ 𝐺 mit 𝑔1 𝐻 = 𝑔2 𝐻 und 𝑔1′ , 𝑔2′ ∈ 𝐺 mit 𝑔1′ 𝐻 = 𝑔2′ 𝐻. So gilt:
Proposition 6.43
Sei 𝑉 ein 𝐾-Vektorraum und 𝑈 ⊂ 𝑉 ein Untervektorraum. Die Faktorgruppe 𝑉 /𝑈 der
Linksnebenklassen 𝑣 + 𝑈 von 𝑉 mod 𝑈 wird mit der skalaren Multiplikation
𝑘∈𝐾
𝑘 · (𝑣 + 𝑈 ) := (𝑘𝑣) + 𝑈 𝑣∈𝑉
𝑝 : 𝑉 ⇒ 𝑉 /𝑈
𝑣 ↦→ 𝑣 + 𝑈
ist linear.
Beweis.
Zu zeigen: Die skalare Multiplikation ist wohldefiniert. Also sei 𝑣1 , 𝑣2 ∈ 𝑉 mit 𝑣1 + 𝑈 =
𝑣2 + 𝑈 , also 𝑣1 − 𝑣2 ∈ 𝑈 . Dann gilt für alle 𝑘 ∈ 𝐾
𝑘𝑣1 + 𝑈 = 𝑘𝑣2 + 𝑈.
Alle anderen Eigenschaften werden von der Vektorraumstruktur auf 𝑉 vererbt. Insbeson-
dere ist klar, dass die kanonische Projektion linear ist.
62
Satz 6.44 (Dimension des Faktorraums)
Sei 𝑉 ein endlich dimensionaler Vektorraum und 𝑈 ⊂ 𝑉 ein Untervektorraum. Dann ist
𝑉 /𝑈 endlich dimensional und es gilt
Beweis.
Sei 𝑈 ′ ein Komplement zu 𝑈 in 𝑉 . Dann ist
Betrachte
𝑖 𝑝
𝑓 : 𝑈′ →
− 𝑉 →
− 𝑉 /𝑈
Behauptung: 𝑓 ist ein Isomorphismus.
𝑓 (𝑢′ ) = 𝑢′ + 𝑈 = 𝑣 + 𝑈.
𝑉 /𝑈
63
Beweis.
2 Eindeutigkeit
Seien 𝑓¯1 , 𝑓¯2 zwei solcher Abbildungen. Sei 𝑣 + 𝑈 ∈ 𝑉 /𝑈 . Wir müssen zeigen
𝑓¯1 (𝑣 + 𝑈 ) = 𝑓¯2 (𝑣 + 𝑈 ).
Das gilt da
also
𝑓¯1 (𝑣 + 𝑈 ) = 𝑓¯2 (𝑣 + 𝑈 ).
Beweis.
3 Isomorphismus.
Sei 𝑓 ∈ Hom𝐾 (𝑉 /𝑈, 𝑊 ). Betrachte die Umkehrabbildung 𝐺 : definiert durch
𝐺(𝑓 ) = 𝑓 ∘ 𝑝 : 𝑉 → 𝑊
64
Satz 6.47 (Homomorphiesatz für lineare Abbildungen)
Seien 𝑉, 𝑊 Vektorräume, 𝑓 : 𝑉 → 𝑊 lineare Abbildungen. Dann gibt es einen natürlichen
Vektorraumisomorphismus
𝐹 : 𝑉 / ker(𝑓 ) → im(𝑓 )
mit
𝑓 = 𝑖 ∘ 𝐹 ∘ 𝑝.
𝑓
𝑉 𝑊
𝑝 𝑖
𝐹
𝑉 / ker(𝑓 ) im(𝑓 )
Beweis.
Nach Satz 6.45 erhalten wir eine lineare Abbildung
𝑓¯ : 𝑉 / ker(𝑓 ) → 𝑊
mit
𝑓¯(𝑣 + ker(𝑓 )) = 𝑓 (𝑣)
d.h.
𝑓 = 𝑓¯ ∘ 𝑝.
𝑣 + ker(𝑓 ) = 0 + ker(𝑓 ).
𝑓 = 𝑓¯ ∘ 𝑝 = 𝑖 ∘ 𝐹 ∘ 𝑝.
6.5 Dualraum
Definition 6.48
Sei 𝑉 ein 𝐾-Vektorraum. Wir definieren den Raum der linearen Funktionale auf 𝑉 durch
65
nicht gleich 0 ist, gibt eine Basis von 𝐾, insbesondere ist {1} ⊂ 𝐾 eine Basis.
Aus Proposition 6.33 2 folgt, dass die lineare Funktionale 𝜑1 , . . . , 𝜑𝑛 ∈ 𝑉 * definiert
durch {︃
1 𝑖=𝑗
𝜑𝑖 (𝑣𝑗 ) := 𝛿𝑖𝑗 := (Kronecker-Delta)
0 𝑖 ̸= 𝑗
eine Basis von 𝑉 * bilden.
Wieso? Wähle Basis {𝑤1 = 1 ∈ 𝐾} von 𝐾. Dann ist
𝑓𝑖1 = 𝜑𝑖 .
Definition 6.49
Sei 𝑉 endlich dimensional mit Basis 𝐵 = {𝑣1 , . . . , 𝑣𝑛 }, so heißt die Basis
𝐵 * = {𝜑1 , . . . 𝜑𝑛 } ⊂ 𝑉 * = Hom(𝑉, 𝐾)
𝜑𝑖 (𝑣𝑗 ) = 𝛿𝑖𝑗
Proposition 6.51
Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum. Betrachte
𝑉 ** := Hom(𝑉 * , 𝐾)
Φ𝑉 : 𝑉 → 𝑉 **
𝑣 ↦→ Φ𝑉 (𝑣)(𝜑) := 𝜑(𝑣) für 𝜑 ∈ 𝑉 *
ein Isomorphismus.
Insbesondere sind 𝑉 und 𝑉 ** kanonisch isomorph.
Beweis.
2 Es gilt
dim(𝑉 ) = dim(𝑉 * ) = dim(𝑉 ** ).
66
Daher müssen wir nach Korollar 6.38 nur zeigen, dass Φ𝑉 injektiv ist.
Seien 𝑣, 𝑤 ∈ 𝑉 mit Φ𝑉 (𝑣) = Φ𝑉 (𝑤). Also
Also
0 = Φ𝑉 (𝑣 − 𝑤)(𝜑) = 𝜑(𝑣 − 𝑤) ∀𝜑 ∈ 𝑉 * .
Wir nehmen an 𝑣 − 𝑤 ̸= 0. Betrachte 𝑥1 = 𝑣 − 𝑤 ̸= 0 und ergänze {𝑥1 } zu einer
Basis 𝐵 = {𝑥1 , . . . , 𝑥𝑛 } von 𝑉 .
Sei 𝐵 * die duale Basis zu 𝐵.
𝐵 * = {𝜑1 , . . . , 𝜑𝑛 } von 𝑉 * .
Dann ist
0 = 𝜑1 (𝑣 − 𝑤) = 𝜑1 (𝑥1 ) = 1
Dies ist ein Widerspruch, da 0 ̸= 1. E
Also 𝑣 − 𝑤 = 0, also 𝑣 = 𝑤. Damit ist Φ𝑉 injektiv und somit ein Isomorphismus.
Φ𝑉 (𝑣) ⊂ 𝑉 ** .
↑
injektiv
Definition 6.52
Seien 𝑉, 𝑊 zwei 𝐾-Vektorräume und 𝑓 : 𝑉 → 𝑊 eine lineare Abbildung. Die zu
𝑓 duale Abbildung ist
𝑓* : 𝑊* → 𝑉 *
𝜑 ↦→ 𝑓 * (𝜑) := 𝜑 ∘ 𝑓.
𝑓
𝑉 𝑊
𝜑
𝜑·𝑓
𝐾
67
Proposition 6.53
Es gilt
2 Sei 𝑓 ∈ Hom(𝑉, 𝑊 ) und sei 𝑓 ** = (𝑓 * )* die duale Abbildung der dualen Abbildung.
Dann gilt
𝑓 ** ∘ Φ𝑉 = Φ𝑊 ∘ 𝑓.
𝑓
𝑉 𝑊
Φ𝑉 Φ𝑊
𝑓 **
𝑉 ** 𝑊 **
Beweis.
2 Sei 𝑣 ∈ 𝑉, 𝜑 ∈ 𝑊 *
Beweis.
1
(𝑊/ im(𝑓 ))* = Hom(𝑊/ im(𝑓 ), 𝐾)
ker(𝑓 * ) = { 𝜑 : 𝑊 → 𝐾 | 𝑓 * (𝜑) = 0 }
={ 𝜑:𝑊 →𝐾 | 𝜑∘𝑓 =0 }
= { 𝜑 : 𝑊 → 𝐾 | im(𝑓 ) ⊂ ker(𝜑) }.
68
Satz 6.55 (Rangsatz)
Seien 𝑉, 𝑊 endlich dimensional und 𝑓 : 𝑉 → 𝑊 eine lineare Abbildung. Dann gilt
Beweis.
Rang(𝑓 * ) = dim(im(𝑓 * ))
= dim(𝑊 * ) − dim(ker(𝑓 * ))
Satz 6.37
= dim(𝑊 * ) − dim((𝑊/ im(𝑓 ))* )
Korollar 6.54
= dim(𝑊 ) − dim(𝑊/ im(𝑓 ))
Korollar 6.50
= dim(𝑊 ) − (dim(𝑊 ) − dim(im(𝑓 )))
Satz 6.44
= dim(im(𝑓 ))
= Rang(𝑓 ).
7.1 Matrizenrechnung
Definition 7.1
1 Eine 𝑚 × 𝑛-Matrix 𝐴 mit Einträgen in 𝐾 ist ein rechteckiges Schema mit 𝑚 Zeilen
und 𝑛 Spalten und Einträgen in 𝐾. (𝐴)𝑖𝑗 = 𝑎𝑖𝑗 heißen Koeffizienten.
69
2 Mat(𝑚, 𝑛; 𝐾) bezeichnet die Menge aller 𝑚 × 𝑛-Matrizen. Mit den Verknüpfungen
und für 𝑘 ∈ 𝐾:
𝑘𝐴 = 𝑘(𝑎𝑖𝑗 )𝑚 𝑛 𝑚 𝑛
𝑖 = 1 𝑗 = 1 = (𝑘𝑎𝑖𝑗 )𝑖 = 1 𝑗 = 1
⎛ ⎞
𝑘𝑎11 . . . 𝑘𝑎1𝑛
= ⎝ ... .. ⎟
. ⎠
⎜
𝑘𝑎𝑚1 . . . 𝑘𝑎𝑚𝑛
Beispiel.
1
⎛ ⎞
1 2
3⎠
𝐴 = ⎝2 5
∈ Mat(3, 2; Q)
3 1
⎛ ⎞
1 0
𝐵= 0⎝ 0⎠ ∈ Mat(3, 2; Q)
0 1
1
⎛ ⎞
2 2
3⎠
𝐴+𝐵 = 2
⎝
5
3 2
70
Zeilenvektoren von 𝐴
(︀ 1 )︀
1 ∈ Mat(1, 2; Q)
(︀ 23 )︀
2
(︀ 5 )︀
3 1
⎛ ⎞ ⎛1⎞
1 2
Spalenvektoren von 𝐴 ⎝2⎠ ⎝ 3 ⎠ ∈ Mat(3, 1; Q)
5
3 1
⎛ ⎞
2 1
2 · 𝐴 = ⎝4 65 ⎠
6 2
𝑏-te Spalte
⎛ ⎞
0 ... ... 0 ... ... 0
⎜ .. ..
⎜. .
⎟
0⎟
⎜.
⎜.
⎟
⎜. 0 0⎟
{︃ ⎟
1 𝑎=𝑖∧𝑏=𝑗
(𝐸 𝑎𝑏 )𝑖𝑗 = 𝐸 (𝑎𝑏) = ⎜0 . . . 0 1 0 . . . 0⎟ 𝑎-te Zeile
⎜ ⎟
0 𝑠𝑜𝑛𝑠𝑡 ⎜.
⎜ ..
⎟
0 0⎟
⎜ .. ..
⎜ ⎟
⎝. .
⎟
0⎠
0 ... ... 0 ... ... 0
71
Definition 7.3 (Matrixprodukt)
Für 𝐴 = (𝑎𝑖𝑗 )𝑚 𝑖 = 1 𝑗 = 1 ∈ Mat(𝑚, 𝑛; 𝐾) und 𝐵 = (𝑏𝑖𝑗 )𝑖 = 1 𝑗 = 1 ∈ Mat(𝑛, 𝑜; 𝐾)
𝑛 𝑚 𝑛
definieren wir das Matrixprodukt
𝑛
𝑎𝑖𝑗 𝑏𝑗𝑘 )𝑚 𝑜
∑︁
𝐴 · 𝐵 := ( 𝑖 = 1 𝑘 = 1 ∈ Mat(𝑛, 𝑜; 𝐾)
𝑗=1
𝑎11
𝑎12 . . . 𝑎1𝑛 𝑏11 . . . . . . 𝑏1𝑜
⎛ ⎞ ⎛ ⎞
.. ⎟ ⎜ .. .. ⎟
⎜ 𝑎21 . ⎟ ⎜ . . ⎟
⎜
𝐴=⎜ . . 𝐵=⎜ . .. ⎟
⎝ .. .. ⎠ ⎝ ..
⎟
. ⎠
𝑎𝑚1 . . . . . . 𝑎𝑚𝑛 𝑏𝑛1 . . . . . . 𝑏𝑛𝑜
⎛ ∑︀𝑛 ∑︀𝑛 ⎞
𝑗=1 𝑎1𝑗 𝑏𝑗1 ... 𝑗=1 𝑎1𝑗 𝑏𝑗𝑜
.. ..
𝐴·𝐵 =⎝ . .
⎜ ⎟
⎠
∑︀𝑛 ∑︀𝑛
𝑗=1 𝑎𝑚𝑗 𝑏𝑗1 . . . 𝑗=1 𝑎𝑚𝑗 𝑏𝑗𝑜
Achtung: 𝐴 · 𝐵 ist nur definiert, wenn die Anzahl der Spalten von 𝐴 gleich der Anzahl
der Zeilen von 𝐵 ist.
𝐴 · 𝐵 gleich 𝐵 · 𝐴
z.B: (︂ )︂ (︂ )︂ (︂ )︂ (︂ )︂
0 1 1 0 0 0 0 1
𝐴= , 𝐵= , 𝐴·𝐵 = , 𝐵·𝐴=
0 0 0 0 0 0 0 0
Beispiel.
1 (︂ )︂ (︂ 1 )︂ (︂ 1 )︂ (︂ 5 )︂
1 2 +2
𝐴= , 𝐵= 2 , 𝐴·𝐵 = 2
3 = 2
11
3 4 1 2
+4 2
2
(︀ )︀
𝐴= 1 2 ∈ Mat(1, 2; Q)
(︂ )︂
3
𝐵= ∈ Mat(2, 1; Q)
4
(︀ )︀ (︀ )︀
𝐴 · 𝐵 = 1 · 3 + 2 · 4 = 11 ∈ Mat(1, 1; Q)
72
3
⎛ ⎞
1 2
𝐴 = ⎝3 4 ⎠ ∈ Mat(3, 2; Q)
5 6
(︂ )︂
1 3 5
𝐵= ∈ Mat(2, 3; Q)
2 4 6
⎛ ⎞
5 11 17
𝐴 · 𝐵 = ⎝11 25 39⎠ ∈ Mat(3, 3; Q)
17 39 61
Proposition 7.4
Seien 𝐴, 𝐴′ ∈ Mat(𝑚, 𝑛; 𝐾)
und 𝐵, 𝐵 ′ ∈ Mat(𝑛, 𝑜; 𝐾)
und 𝐶 ∈ Mat(𝑜, 𝑝; 𝐾).
Dann gilt:
1
𝐴 · (𝐵 · 𝐶) = (𝐴 · 𝐵) · 𝐶 ∈ Mat(𝑚, 𝑝; 𝐾) Assoziativität
(𝐴 + 𝐴′ ) · 𝐵 = 𝐴 · 𝐵 + 𝐴′ · 𝐵 ∈ Mat(𝑚, 𝑜; 𝐾)
𝐴 · (𝐵 + 𝐵 ′ ) = 𝐴 · 𝐵 + 𝐴 · 𝐵 ′ ∈ Mat(𝑚, 𝑜; 𝐾)
3 Für 𝑘 ∈ 𝐾
𝐴 · (𝑘𝐵) = 𝑘(𝐴 · 𝐵) = (𝑘𝐴) · 𝐵
𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾)
𝐵 ↦→ 𝐴 · 𝐵
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾)
𝑣 ↦→ 𝐴 · 𝑣
73
𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) :
𝑎11 𝑎12 . . . 𝑎1𝑛
⎛ ⎞
.. ⎟
⎜𝑎 . ⎟
⎜
𝐴 = ⎜ .21 .. ⎟ = (𝑎𝑖𝑗 )𝑚 𝑛
𝑖=1 𝑗=1 𝑎𝑖𝑗 ∈ 𝐾
⎝ .. . ⎠
𝑎𝑚1 . . . . . . 𝑎𝑚𝑛
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾)
𝐵 ∈ Mat(𝑛, 𝑜; 𝐾)
𝐴 · 𝐵 ∈ Mat(𝑚, 𝑜; 𝐾)
𝑛
∑︁
(𝐴 · 𝐵)𝑖𝑗 = 𝑎𝑖𝑗 𝑏𝑗𝑘 = 𝑖-te Zeile von A · 𝑗-te Spalte von B
𝑗=1
𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾)
Spezialfall 𝑜 = 1; 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾)
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾)
⎛ ⎞ ⎛ ∑︀𝑛 ⎞
𝑏1 𝑗=1 𝑎1𝑗 𝑏𝑗
𝑏 = ⎝ ... ⎠ ↦→ 𝐴 · 𝑏 = ⎝ ..
.
⎜ ⎟ ⎜ ⎟
⎠
∑︀𝑛
𝑏𝑛 𝑗=1 𝑎𝑚𝑗 𝑏𝑗
Proposition 7.6
1 Die Zuordnung
Mat(𝑚, 𝑛; 𝐾) → Hom(Mat(𝑛, 1; 𝐾), Mat(𝑚, 1; 𝐾))
𝐴 ↦→ 𝐴∙
ist ein Isomorphismus von Vektorräumen.
2 Es gilt: für 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) und 𝐴′ ∈ Mat(𝑙, 𝑚; 𝐾)
𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾)
𝐴′ ∙; Mat(𝑚, 𝑜; 𝐾) → Mat(𝑙, 𝑜; 𝐾)
(𝐴′ ∙) ∘ (𝐴∙) = (𝐴′ · 𝐴)∙
Hier
𝐴′ · 𝐴 ∈ Mat(𝑙, 𝑛; 𝐾)
(𝐴′ · 𝐴)∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑙, 𝑜; 𝐾)
74
Beweis.
1 z.z: die Zuordnung 𝐴 ↦→ 𝐴∙ ist eine lineare Abbildung. Nach Proposition 7.4 gilt
∀ 𝐵 ∈ Mat(𝑛, 𝑙; 𝐾)
(𝑘𝐴) · 𝐵 = 𝑘(𝐴 · 𝐵)
und (𝐴 + 𝐴′ ) · 𝐵 = 𝐴 · 𝐵 + 𝐴′ · 𝐵.
2 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) 𝐴′ ∈ Mat(𝑙, 𝑚; 𝐾)
z.z.: (𝐴′ ∙) ∘ (𝐴∙) = (𝐴′ · 𝐴)∙ Dies folgt aus der Assoziativität des Matrixprodukts
𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾)
𝐴′ ∙ : Mat(𝑚, 𝑜; 𝐾) → Mat(𝑙, 𝑜; 𝐾)
(𝐴′ · 𝐴)∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑙, 𝑜; 𝐾).
75
Bemerkung. Für 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) definiert 𝐴∙ einen Endomorphismus von Mat(𝑛, 1; 𝐾).
Definition 7.7 ⎛ ⎞
10
Die Matrix 1 = ⎝ . . . ⎠ ∈ Mat(𝑛, 𝑛; 𝐾) heißt die Einheitsmatrix. Es gilt für alle
⎜ ⎟
0 1
𝐴 ∈ Mat(𝑚, 𝑛; 𝐾)
1𝑚 · 𝐴 = 𝐴 = 𝐴 · 1𝑛
und
1𝑚 ∙ : Mat(𝑚, 𝑛; 𝐾) → Mat(𝑚, 𝑛; 𝐾)
ist die Identitätsabbildung.
Proposition 7.8
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Dann sind folgende Aussagen äquivalent:
1 Die Abbildung
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
ist bijektiv.
Beweis.
Also gilt auch 𝐴 · 𝐵 = 1𝑛 . Eindeutigkeit folgt aus der Eindeutigkeit der Umkehrab-
bildung und Proposition 7.6 1 .
𝑥 = 1𝑛 · 𝑥 = (𝐵 · 𝐴) · 𝑥 = 𝐵 · (𝐴 · 𝑥)
Also gilt falls 𝐴 · 𝑥 = 0 auch 𝑥 = 0. Also ker(𝐴∙) = {0} und daher 𝐴∙ injektiv. Da
dim(Mat(𝑛, 1; 𝐾)) = dim(Mat(𝑛, 1; 𝐾)), ist 𝐴∙ also auch bijektiv.
76
Definition 7.9
2 Die Teilmenge
mit der Matrixmultiplikation ist eine Gruppe (Übung). Sie heißt die
allgemeine lineare Gruppe. Das neutrale Element ist 1𝑛 .
Beispiel.
(︂ )︂
𝑎 𝑏
1 𝐴= mit 𝑎𝑑 − 𝑏𝑐 ̸= 0. Dann ist
𝑐 𝑑
(︂ )︂
−1 1 𝑑 −𝑏
𝐴 =
𝑎𝑑 − 𝑏𝑐 −𝑐 𝑎
Warum?
(︂ )︂ (︂ )︂ (︂ )︂
−1 1 𝑎𝑑 − 𝑏𝑐 −𝑎𝑏 + 𝑏𝑎 1 𝑎𝑑 − 𝑏𝑐 0 1 0
𝐴·𝐴 = = =
𝑎𝑑 − 𝑏𝑐 𝑐𝑑 − 𝑑𝑐 𝑐𝑏 + 𝑑𝑎 𝑎𝑑 − 𝑏𝑐 0 𝑐𝑏 + 𝑑𝑎 0 1
0⎟
⎛ ⎞
𝑘1
⎜ 𝑘2
𝐵=⎜ ... ⎟ 𝑘𝑖 ∈ 𝐾 ∖ {0}
⎜ ⎟
⎝ ⎠
0 𝑘𝑛
𝑘1−1
⎛ ⎞
..
0⎟
𝐵 −1 = ⎝ . Nachrechnen!
⎜
⎠
0 𝑘𝑛−1
77
3
⎛ ⎞
1 𝑎 𝑏
𝐶= 0 ⎝ 1 𝑐⎠ 𝑎, 𝑏, 𝑐 ∈ 𝐾
0 0 1
⎛ ⎞
1 −𝑎 −𝑏 + 𝑎𝑐
Dann −1
𝐶 = ⎝0 1 −𝑐 ⎠
0 0 1
⎛ ⎞ ⎛ ⎞
1 0 −𝑏 + 𝑎𝑐 − 𝑎𝑐 + 𝑏 1 0 0
Denn 𝐶 · 𝐶 −1 = ⎝0 1 0 ⎠ = ⎝0 1 0⎠
0 0 1 0 0 1
Bemerkung 7.11. Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾). Der Spaltenrang von 𝐴 ist gleich der Rang der
linearen Abbildung
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾)
Beweis.
Rang(𝐴∙) = dim(im(𝐴))
Betrachte { 𝑒𝑗 | 1 ≤ 𝑗 ≤ 𝑛 } Basis von Mat(𝑛, 1; 𝐾)
⎛ ⎞
𝑎1𝑗
𝐴 · 𝑒𝑗 = ⎝ ... ⎠ ist der 𝑗-te Spaltenvektor von 𝐴.
⎜ ⎟
𝑎𝑚𝑗
Daher ist der Spaltenraum von 𝐴 genau das Bild der Abbildung (𝐴∙).
Also Spaltenrang(𝐴) = Rang(𝐴∙).
78
Proposition 7.12
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾), sei 𝐵 ∈ 𝐺𝐿𝑛 (𝐾) und 𝐶 ∈ 𝐺𝐿𝑚 (𝐾). Dann gilt
1 Spaltenrang(𝐴) = Spaltenrang(𝐴 · 𝐵)
2 Spaltenrang(𝐴) = Spaltenrang(𝐶 · 𝐴 · 𝐵)
Beweis.
𝐵 ∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
𝐶 ∙ : Mat(𝑚, 1; 𝐾) → Mat(𝑚, 1; 𝐾)
Also
Definition 7.13
Für eine Matrix 𝐴 = (𝑎𝑖𝑗 )𝑚
𝑖 = 1 𝑗 = 1 ∈ Mat(𝑚, 𝑛; 𝐾) definiert man die
𝑛
transponierte Matrix
𝐴𝑇 := (𝑎𝑗𝑖 )𝑛 𝑚
𝑗 = 1 𝑖 = 1 ∈ Mat(𝑛, 𝑚; 𝐾)
⎞𝑇 ⎛
𝑎11 𝑎12 . . . 𝑎1𝑛 𝑎11 𝑎21 . . . 𝑎𝑚1
⎛ ⎞
.. ⎟ .. ⎟
⎜ 𝑎21 𝑎22 . ⎟ ⎜ 𝑎12 𝑎22 . ⎟
⎜ ⎜
⎜ . .. ⎟ =⎜ . .. ⎟
⎝ .. . ⎠ ⎝ .. . ⎠
𝑎𝑚1 . . . . . . 𝑎𝑚𝑛 𝑎1𝑛 . . . . . . 𝑎𝑚𝑛
79
Beispiel.
⎛ ⎞
1 4
𝐴 = ⎝2 5⎠
3 6
(︂ )︂
1 2 3
𝐴𝑇 =
4 5 6
Proposition 7.14
Es gilt:
1 (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵 𝑇 𝐴, 𝐵 ∈ Mat(𝑚, 𝑛; 𝐾)
Beweis.
Einfaches Nachrechnen (Übung!).
Bemerkung 7.15.
( )𝑇 : Mat(𝑚, 𝑛; 𝐾) → Mat(𝑛, 𝑚; 𝐾)
𝐴 ↦→ 𝐴𝑇
Beweis.
Bemerkung.
(Zeilenraum(𝐴))𝑇 = Spaltenraum(𝐴𝑇 )
Zeilenrang(𝐴) = Spaltenrang(𝐴𝑇 )
80
7.2 Matrizen und lineare Abbildungen
Zur Erinnerung: Sei 𝐾 ein Körper und 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾).
⎛ ⎞
𝑎11 𝑎12 . . . 𝑎1𝑛
⎟ ← 2-te Zeile
⎜ 𝑎21 𝑎22 . . . 𝑎2𝑛 ⎟
𝐴 ∈ (𝑎𝑖𝑗 )𝑚 𝑛
𝑖=1 𝑗=1 =⎜ . .. ⎟
⎜
⎝ .. . ⎠
𝑎𝑚1 . . . . . . 𝑎𝑚𝑛
↑
𝑛-te Spalte
(𝐴 · 𝐵) ∈ Mat(𝑚, 𝑜; 𝐾)
𝑛
∑︁
(𝐴 · 𝐵)𝑖𝑗 = 𝑎𝑖𝑙 𝑏𝑙𝑗 .
𝑙=1
Das ist das innere Produkt der 𝑖-ten Zeile von 𝐴 mit der 𝑗-ten Spalte von B.
𝐴∙ : Mat(𝑛, 𝑜; 𝐾) → Mat(𝑚, 𝑜; 𝐾).
Spezialfall, falls 𝑜 = 1:
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑚, 1; 𝐾).
Standardbasis {𝑒1 , . . . 𝑒𝑛 } von Mat(𝑛, 1; 𝐾).
⎛ ⎞
0
⎜ .. ⎟
⎜.⎟
⎜ ⎟
⎜0⎟
⎜1⎟ ← 𝑖-te Zeile
⎜ ⎟
𝑒𝑖 = ⎜ ⎟
⎜0⎟
⎜ .. ⎟
⎜ ⎟
⎝.⎠
0
Mat(𝑛, 1; 𝐾) −→ 𝐾 𝑛
𝑒𝑖 ↦−→ 𝑒𝑖 = (0, . . . , 0, 1 , 0, . . . , 0).
𝑖-te Stelle
Definition 7.16
Sei 𝑉 ein endlich dimensionaler Vektorraum über 𝐾. Eine geordnete Basis 𝒜 von 𝑉 ist
ein Element 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) ∈ 𝑉 𝑛 , so dass die Teilmenge
{𝑣1 , . . . , 𝑣𝑛 } ⊂ 𝑉
eine Basis von 𝑉 ist.
81
Satz 7.17 (Matrixdarstellung)
Seien 𝑉, 𝑊 endlich-dimensionale 𝐾−Vektorräume und 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) und ℬ =
(𝑤1 , . . . , 𝑤𝑛 ) geordnete Basen. Dann gibt es für jede lineare Abbildung
𝑓 ∈ Hom(𝑉, 𝑊 )
Mat𝒜ℬ (𝑓 ) = 𝐴 = (𝑎𝑖𝑗 )𝑚 𝑛
𝑖 = 1 𝑗 = 1 ∈ Mat(𝑚, 𝑛; 𝐾)
so dass 𝑚
∑︁
𝑓 (𝑣𝑗 ) = 𝑎𝑖𝑗 𝑤𝑖 .
𝑖=1
2 Sei
𝑖𝐴 : Mat(𝑛, 1; 𝐾) −→ 𝑉
⎛ ⎞
𝑥1 𝑛
⎜ .. ⎟ ∑︁
⎝ . ⎠ ↦−→ 𝑥𝑗 𝑣𝑗
𝑥𝑛 𝑗=1
𝑖𝐵 : Mat(𝑚, 1; 𝐾) −→ 𝑊,
so gilt
𝑓 ∘ 𝑖𝐴 = 𝑖𝐵 ∘ (Mat𝒜ℬ (𝑓 )∙);
das heißt, das Diagramm
𝑓
𝑉 𝑊
𝑖𝐴 𝑖𝐵
Mat𝒜ℬ (𝑓 )∙
Mat(𝑛, 1; 𝐾) Mat(𝑚, 1; 𝐾)
kommutiert.
82
3 Sei 𝑈 ein endlich dimensionaler 𝐾-Vektorraum mit geordneter Basis 𝒞 und 𝑔 ∈
Hom(𝑊, 𝑈 ), so gilt
Beweis.
𝑓 ↦−→ 𝐴 = Mat𝒜ℬ (𝑓 )
wohldefiniert ist. Da ℬ = (𝑤1 , . . . , 𝑤𝑛 ) eine Basis ist, lässt sich jeder Vektor 𝑤 ∈ 𝑊
eindeutig als Linearkombination der 𝑤𝑖 schreiben. Dies gilt insbesondere für 𝑓 (𝑣𝑗 ).
Also sind die Matrixeinträge
(𝑎𝑖𝑗 )𝑚 𝑛
𝑖=1 𝑗=1
eindeutig bestimmt, und somit die Abbildung
𝑓 (𝑣𝑗 ) 1 ≤ 𝑗 ≤ 𝑛.
𝑖𝐴
Mat(𝑛, 1; 𝐾) 𝑉
2 Mat𝒜ℬ (𝑓 )∙ 𝑓
𝑖𝑏
Mat(𝑚, 1; 𝐾) 𝑊
83
Wir wollen zeigen, dass
𝑓 ∘ 𝑖𝐴 = 𝑖𝐵 ∘ (Mat𝒜ℬ (𝑓 )∙).
𝑛
∑︁ 𝑛
∑︁
𝑓 ∘ 𝑖𝐴 (𝑥) = 𝑓 ( 𝑥𝑗 𝑣𝑗 ) = 𝑥𝑗 𝑓 (𝑣𝑗 )
𝑗=1 𝑗=1
𝑛
∑︁ 𝑚
∑︁ 𝑚
∑︁ 𝑛
∑︁
= 𝑥𝑗 ( 𝑎𝑖𝑗 𝑤𝑖 ) = ( 𝑎𝑖𝑗 𝑥𝑗 )𝑤𝑖
𝑗=1 𝑖=1 𝑖=1 𝑗=1
𝑚
∑︁
= (𝐴∙𝑥)𝑖 𝑤𝑖 = 𝑖𝐵 ((𝐴∙)(𝑥))
𝑖=1
= 𝑖𝐵 ∘ (𝐴∙)(𝑥)
3 Sei 𝒞 = (𝑢1 , . . . , 𝑢𝑘 ) eine geordnete Basis von 𝑈 und 𝐵 = Matℬ𝒞 (𝑔). Dann gilt
𝑘
∑︁
𝑔(𝑤𝑖 ) = 𝑏𝑎𝑖 𝑢𝑎 .
𝑎=1
Damit
𝑚
∑︁ 𝑚
∑︁
𝑔 ∘ 𝑓 (𝑣𝑗 ) = 𝑔( 𝑎𝑖𝑗 𝑤𝑖 ) = 𝑎𝑖𝑗 𝑔(𝑤𝑖 )
𝑖=1 𝑖=1
𝑚
∑︁ ∑︁𝑘 𝑘
∑︁
= 𝑎𝑖𝑗 𝑏𝑎𝑖 𝑢𝑎 = (𝐵 · 𝐴)𝑎𝑗 𝑢𝑎 .
𝑖=1 𝑎=1 𝑎=1
Also
Mat𝒜𝒞 (𝑔 ∘ 𝑓 ) = 𝐵 · 𝐴.
Beispiel.
𝒜 = (𝑒1 , . . . , 𝑒𝑛 ) ∈ 𝑉 𝑛
ℬ = (𝑒1 , . . . , 𝑒𝑚 ) ∈ 𝑊 𝑚 .
84
Dann ist Mat𝒜ℬ (𝐴∙) = 𝐴.
In diesem Fall ist
𝑧∙ : C → C
𝑤 ↦→ 𝑧 · 𝑤
𝑧·1=𝑧 =𝑥·1+𝑦·𝑖
𝑧 · 𝑖 = (𝑥 + 𝑖𝑦) · 𝑖 = −𝑦 · 1 + 𝑥 · 𝑖
(︂ )︂
𝑥 −𝑦
𝐴 = Mat𝒜𝒜 (𝑧 ∙) =
𝑦 𝑥
Sei 𝑧 ′ = 𝑥′ + 𝑖𝑦 ′ . Dann gilt
(︂ ′
𝑥 −𝑦 ′
)︂
′∙
𝐴 = Mat𝒜𝒜 (𝑧 ) =
𝑦 ′ 𝑥′
(︂ ′ ′
)︂ (︂ )︂ (︂ ′ ′ ′ ′
)︂
′∙ 𝑥 −𝑦 𝑥 −𝑦 𝑥𝑥 − 𝑦 𝑦 −𝑥 𝑦 + 𝑦 𝑥
Mat𝒜𝒜 (𝑧 ) · Mat𝒜𝒜 (𝑧 ∙) = · =
𝑦 ′ 𝑥′ 𝑦 𝑥 𝑦 ′ 𝑥 + 𝑥′ 𝑦 −𝑦 ′ 𝑦 + 𝑥′ 𝑥
= Mat𝒜𝒜 ((𝑧 ′ · 𝑧)∙),
85
Korollar 7.18. Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum der Dimension 𝑛, und 𝒜
eine geordnete Basis. Dann gilt
𝑖𝑑𝑉 : 𝑉 → 𝑉
𝑣 ↦→ 𝑣
⎛ 1
1
0⎞
ist Mat𝒜𝒜 (𝑖𝑑𝑉 ) = 1𝑛 die Einheitsmatrix ⎜ 1
⎜ ⎟
⎟
⎝ 1 ⎠
1
0 1
2 Die Abbildung
Beweis.
Folgt aus Satz 7.17. Sei 𝑓 −1 die Umkehrabbildung von 𝑓 . Dann gilt
𝑖𝑑𝑅2 = 𝑅2 −→ 𝑅2 .
Dann gilt (︂ )︂
1 0
Mat𝒜𝒜 (𝑖𝑑𝑅2 )
0 1
aber (︂ )︂
0 1
Mat𝒜ℬ (𝑖𝑑) =
1 0
Die Matrixdarstellung hängt von 𝒜 und ℬ ab!
Proposition 7.19
Seien 𝑉, 𝑊 endlich dimensionale 𝐾-Vektorräume der Dimensionen 𝑛 und 𝑚. Seien 𝒜
und ℬ geordnete Basen. Sei 𝑓 : 𝑉 → 𝑊 eine lineare Abbildung mit Matrixdarstellung
86
1 Es gilt
Mat𝒜′ ℬ′ (𝑓 ) = Matℬℬ′ (𝑖𝑑𝑊 ) · 𝐴 · Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ).
2 Die Basiswechselmatrizen Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ) und Matℬ′ ℬ (𝑖𝑑𝑊 ) sind invertierbar mit
Beweis.
Folgt direkt aus Satz 7.17 mit Korollar 7.18.
𝑖𝑑𝑉 𝑓 𝑖𝑑𝑊
𝑉 𝑉 𝑊 𝑊
𝐴′ 𝐴 𝐵 𝐵′
Beispiel. Betachte C als R-Vektorraum. Sei 𝒜 = (1, 𝑖) eine geordnete Basis und sei
𝑧 = 𝑥 + 𝑖𝑦. Dann ist (︂ )︂
𝑥 𝑖𝑦
Mat𝒜𝒜 (𝑧 ∙) =
𝑦 𝑥
Sei 𝒜′ = (1 + 𝑖, 1 − 𝑖) eine andere geordnete Basis. Dann berechnen wir Basiswechselma-
trizen.
(︂ 1 1
)︂
1 Mat𝒜𝒜′ (𝑖𝑑𝑉 ) = 2
1
2
2
− 12
1 1
𝑖𝑑C (1) = 1 = (1 + 𝑖) + (1 − 𝑖)
2 2
1 1
𝑖𝑑C (𝑖) = 𝑖 = (1 + 𝑖) − (1 − 𝑖)
2 2
(︂ )︂
1 1
2 Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ) =
1 −1
𝑖𝑑C (1 + 𝑖) = 1 + 𝑖
𝑖𝑑C (1 − 𝑖) = 1 − 𝑖
(︂ 1 1
)︂ (︂ )︂ (︂ )︂
2 2
1 1 1 0
1 =
2
− 12 1 −1 0 1
87
Insbesondere Mat𝒜𝒜′ (𝑖𝑑𝐺 ), Mat𝒜′ 𝒜 (𝑖𝑑𝐺 ) ∈ GL2 (R).
Wenn wir die Multiplikationsabbildung
𝑧∙ : C → C
Satz 7.20
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾). Dann gilt
𝐴 · 𝑎𝑖 = 𝑏 𝑖 für alle 1 ≤ 𝑖 ≤ 𝑘.
Dann gilt {︃
𝑏𝑖 1≤𝑖≤𝑘
𝐴 · 𝑎𝑖 =
0 sonst
88
1𝑘 0
(︃ )︃
Also Mat𝒜′ ℬ′ (𝐴∙) =
0 0
Seien nun
1𝑘 0
(︃ )︃
*
Mat𝒜′ ℬ′ (𝐴) = 𝑆 · 𝐴 · 𝑇 =
0 0
Daher gilt
𝑃 𝑟𝑜𝑝𝑜𝑠𝑖𝑡𝑖𝑜𝑛 7.12
Spaltenrang(𝐴) = Spaltenrang(𝑆 · 𝐴 · 𝑇 )
*
= Zeilenrang(𝑆 · 𝐴 · 𝑇 )
= Spaltenrang((𝑆 · 𝐴 · 𝑇 )𝑇 )
= Spaltenrang(𝑇 𝑇 𝐴𝑇 𝑆 𝑇 )
𝑃 𝑟𝑜𝑝𝑜𝑠𝑖𝑡𝑖𝑜𝑛 7.12
= Spaltenrang(𝐴𝑇 )
= Zeilenrang(𝐴).
Proposition 7.21
Seien 𝑉, 𝑊 endlich dimensionale Vektorräume mit geordneten Basen 𝒜 = (𝑣1 , . . . , 𝑣𝑛 )
und ℬ = (𝑤1 , . . . , 𝑤𝑚 ) und sei 𝑓 : 𝑉 −→ 𝑊 eine lineare Abbildung.
Seien 𝐴* = (𝑣1* , . . . , 𝑣𝑛* ) und 𝐵 * = (𝑤1* , . . . , 𝑤𝑚
*
) die zu 𝒜 und ℬ dualen Basen der
Dualräme 𝑉 und 𝑊 . Dann gilt für die Matrixdarstellung der dualen Abbildung
* *
𝑓 * = 𝑊 * −→ 𝑉 *
dass
Matℬ* 𝒜* (𝑓 * ) = (Mat𝒜ℬ (𝑓 ))𝑇 ,
d.h. Matℬ* 𝒜* (𝑓 ) ist die transponierte Matrix der Matrixdarstellung von 𝑓 bezüglich 𝒜
und ℬ.
Beweis.
Sei 𝐴 = (𝑎𝑖𝑗 )𝑚 𝑛
𝑖 = 1 𝑗 = 1 = Mat𝒜ℬ (𝑓 ).
89
Wir rechnen
𝐷𝑒𝑓 𝑖𝑛𝑖𝑡𝑖𝑜𝑛 6.52
𝑓 * (𝑤𝑗* )(𝑣𝑖 ) = 𝑤𝑗* (𝑓 (𝑣𝑖 ))
𝑚
∑︁
= 𝑤𝑗* ( 𝑎𝑙𝑖 𝑤𝑙 )
𝑙=1
𝑚
𝑤𝑗* linear ∑︁
= 𝑎𝑙𝑖 𝑤𝑗* (𝑤𝑙 )
𝑙=1
𝐷𝑒𝑓 𝑖𝑛𝑖𝑡𝑖𝑜𝑛 6.49
= 𝑎𝑗𝑖
𝑛
∑︁
= 𝑎𝑗𝑘 𝑣𝑘* (𝑣𝑖 )
𝑘=1
Also gilt
𝑛
∑︁
*
𝑓 (𝑤𝑗* ) = 𝑎𝑗𝑘 𝑣𝑘* .
𝑘=1
Also
(Matℬ* 𝒜* (𝑓 * ))𝑘𝑗 = 𝑎𝑗𝑘 ,
also
Matℬ* 𝒜* (𝑓 * ) = 𝐴𝑇 ∈ Mat(𝑚, 𝑛; 𝐾).
90
gegeben sind, und ⎛ ⎞
𝑥1
𝑥 = ⎝ ... ⎠ ∈ Mat(𝑛, 1; 𝐾)
⎜ ⎟
𝑥𝑛
gesucht ist.
Falls 𝑏 = 0 nennt man das Gleichungssystem homogen, falls 𝑏 ̸= 0 inhomogen. Die Menge
der Lösungen
Lös(𝐴, 𝐵) = { 𝑥 ∈ Mat(𝑛, 1; 𝐾) | 𝐴 · 𝑥 = 𝑏 }
nennt man den Lösungsraum.
Manchmal ist es sinnvoll das Gleichungssystem 𝐴 · 𝑥 = 𝑏 als erweiterete Matrix zu
beschreiben
(︀ )︀
𝐴 𝑏 ∈ Mat(𝑚, 𝑛 + 1; 𝐾)
⎛ ⎞
𝑎11 . . . 𝑎1𝑛 𝑏1
)︀ ⎜ ⎜ 21 . . . 𝑎2𝑛 𝑏2
𝑎
(︀ ⎟
𝐴 𝑏 =⎜ ..
⎟
.
⎟
⎝ ⎠
𝑎𝑚1 . . . 𝑎𝑚𝑛 𝑏𝑚
Beispiel.
𝑥1 + 3𝑥2 +5𝑥3 = 0
−𝑥1 + 𝑥2 −𝑥3 = 12
als Matrixgleichung (︂ )︂ (︂ )︂
1 3 5 0
𝐴= ; 𝑏=
−1 1 −1 12
⎛ ⎞
)︂ 𝑥
1 3 5 ⎝ 1⎠
(︂ (︂ )︂
0
𝑥2 =
−1 1 −1 12
𝑥3
Als erweiterte Matrix lässt sich das Gleichungssystem als
(︂ )︂
1 3 5 0 (︀ )︀
= 𝐴 𝑏
−1 1 −1 12
zusammenfassen.
91
Satz 7.23
Seien 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾), 𝑏 ∈ Mat(𝑚, 1; 𝐾). Dann gilt für den Lösungsraum des linearen
Gleichungssystems 𝐴 · 𝑥 = 𝑏
1 Lös(𝐴, 0) ⊆ Mat(𝑛, 1; 𝐾) ist ein Untervektorraum der Dimension
2 Falls 𝑏 ∈
/ Spaltenraum(𝐴), so ist Lös(𝐴, 𝑏) = ∅.
Falls 𝑏 ∈ Spaltenraum(𝐴), so gilt
Lös(𝐴, 𝑏) = 𝑣 + Lös(𝐴, 0)
Lös(𝐵 · 𝐴, 𝐵 · 𝑏) = Lös(𝐴, 𝑏)
Lös(𝐴 · 𝐶, 𝑏) = 𝐶 −1 · Lös(𝐴, 𝑏)
𝐴∙(𝑣 + 𝑢) = 𝐴 · 𝑣 + 𝐴 · 𝑢 = 𝑏 + 0 = 𝑏.
𝐴∙(𝑤 − 𝑣) = 𝐴 · 𝑤 − 𝐴 · 𝑣 = 𝑏 − 𝑏 = 0.
92
3 1) Sei 𝐵 ∈ GL𝑚 (𝐾).
𝐵∙
𝐴 · 𝑥 = 𝑏 ==⇒ 𝐵 · 𝐴 · 𝑥 = 𝐵 · 𝑏
(𝐴 · 𝐶) · 𝐶 −1 · 𝑥 = 𝑏.
(𝐴 · 𝐶) · 𝑥 = 𝑏
Rang(𝐴) = Zeilenrang(𝐴) = 2
dim(Lös(𝐴, 0)) = 3 − 2 = 1.
Zu dem gilt
dim(Spaltenraum(𝐴)) = 2 = dim(Mat(2, 1; 𝐾)),
93
also
im(𝐴∙) = Mat(2, 1; 𝐾).
Insbesondere ist 𝑏 ∈ Spaltenraum von 𝐴, also folgt Lös(𝐴, 𝑏) ̸= ∅. Dies lässt sich leicht
nachprüfen:
Durch Addition der 1. Gleichung zur 2. Gleichung ergibt sich
𝑥 2 = 3 − 𝑥3
𝑥1 = −3𝑥2 − 5𝑥3
= −9 + 3𝑥3 − 5𝑥3
= −9 − 2𝑥3
⎧ ⎛ ⎞ ⎫ ⎛ ⎞ ⎛ ⎞
⎨ −9 − 2𝑥3 ⎬ −9 −2
Lös(𝐴, 𝑏) = ⎝ 3 − 𝑥3 ⎠ 𝑥3 ∈ R = ⎝ 3 + R −1⎠
⎠ ⎝
𝑥3 0 1
⎩ ⎭
⏟ ⏞ ⏟ ⏞
Lös(𝐴,𝑏) Lös(𝐴,0)
Definition 7.24
Eine Matrix (∈𝑖𝑗 )𝑚
𝑖 = 1 𝑗 = 1 Mat(𝑚, 𝑛; 𝐾)𝑎 ist in Zeilenstufenform, falls eine natürliche
𝑛
Zahl 𝑘 mit 1 ≤ 𝑘 ≤ 𝑚 existiert und natürliche Zahlen 1 ≤ 𝑗1 < 𝑗2 < · · · < 𝑗𝑛 ≤ 𝑛, so
dass
wobei an den Stellen * ein belibiges Element aus 𝐾 stehen kann. Die nochtverschwindenden
Elemente 𝑎𝑖𝑗 , 1 ≤ 𝑖 ≤ 𝑘 nennt man die Pivot-Elemente von 𝐴.
94
Schematische Darstellung von 𝐴
⎛ ⎞
0 ∙
⎜
⎜
⎜
⎜
∙
∙
* ⎟
⎟
⎟
⎟
⎜ ∙
⎟
⎜ ⎟
⎜ ∙
⎟
⎜ ⎟
⎜ ∙
⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜ ⎟
0
⎜ ⎟
⎝ ⎠
Beispiel.
0 1
⎛ ⎞
2 0 7
⎜0 0 0 3 0⎟
1. ⎜ ⎟ ist eine Zeilenstufenform.
⎝0 0 0 0 1⎠
0 0 0 0 0
𝑗1 = 2; 𝑗2 = 4; 𝑗3 = 5; 𝑘 = 3
⎛ ⎞
0 1 2 0 7
⎜0 0 0 3 0⎟
2. ⎜ ⎟ ist NICHT in Zeilenstufenform.
⎝0 0 0 1 1⎠
0 0 0 0 0
Lemma 7.25. Ist 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) in Zeilenstufenform, so ist der Rang(𝐴) gleich der
Anzahl von Null verschiedener Zeilenvektoren.
Die von Null verschiedenen Zeilenvektoren bilden eine Basis des Zeilenraums von 𝐴.
Die transponierten der Zeilenvektoren bilden eine Basis des Spaltenraums von 𝐴𝑇 .
Beweis.
Rang(𝐴) = Zeilenrang(𝐴). zu zeigen also: die von 0 verschiedenen Zeilenvektoren
(𝑎)𝑛 1
𝑖=1 𝑗=1 1 ≤ 𝑖 ≤ 𝑘 ∈ Mat(1, 𝑛; 𝐾).
Seien 𝑙1 , 𝑙2 , . . . 𝑙𝑘 ∈ 𝐾 mit
𝑘
∑︁
𝑧= 𝑙𝑖 𝑧𝑖 = 0.
1=𝑙
Wir nehmen an, es gibt ein 𝑙𝑖 ̸= 0. Sei 𝑟 das kleinste solche 𝑖.
Dann ist der 𝑗𝑟 -te Eintrag von 𝑧 genau
𝑙 𝑎 ̸= 0
⏟ 𝑟⏞ ⏟ 𝑟𝑗⏞𝑟
̸=
̸=
0 0
95
Dies ist ein Widerspruch.
Also sind die von Null verschiedenen Zeilenvektoren von 𝐴 𝑧𝑖 ; 1 ≤ 𝑖 ≤ 𝑘 linear unabhängig.
Proposition 7.26
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) in Zeilenstufenform, 𝑏 ∈ Mat(𝑚, 1; 𝐾). Dann gilt für 𝐴 · 𝑥 = 𝑏
folgendes:
Lös(𝐴, 𝑏) = ∅
Beweis.
2 Falls 𝑏𝑖 = 0 für alle 𝑖 > 𝑘, so sind die letzten (𝑛 − 𝑘) Gleichungen des Glei-
chungssystems automatisch erfüllt. Die ersten 𝑘 Gleichungen sind äquivalent zu
den Gleichungen in 2 .
Beispiel.
⎛ ⎞
0 1 2 0 7
⎜0 0 0 3 0⎟
Sei 𝐴 = ⎜
⎝0
⎟
0 0 0 1⎠
0 0 0 0 0
96
𝐴 ist in Zeilenstufenform mit 𝑘 = 3; 𝑗1 = 2; 𝑗2 = 4, 𝑗3 = 5.
Sei 𝑏 ∈ Mat(4, 1; 𝐾) mit 𝑏4 ̸= 0, so hat die Gleichung 𝐴 · 𝑥 = 𝑏 keine Lösung. Falls 𝑏4 = 0
ist, gibt es eine Lösung. Die Dimension von Lös(𝐴, 0) ist 5 − 3 = 2.
Die freien Variablen sind 𝑥1 , 𝑥3
𝑥2 +2𝑥3 +7𝑥5 = 𝑏1
3𝑥4 = 𝑏2
𝑥 5 = 𝑏3
𝑥 5 = 𝑏3
1
𝑥 4 = 𝑏2
3
𝑥2 + 2𝑥3 + 7𝑥5 = 𝑏1
𝑥2 = 𝑏1 − 2𝑥3 − 7𝑥5
= 𝑏1 − 7𝑏3 − 2𝑥3
⎧ ⎛ ⎞ ⎫
⎪
⎪ 𝑥1 ⎪
⎪
⎜𝑏1 − 7𝑏3 − 3𝑥3 ⎟
⎪
⎪ ⎪
⎨ ⎜ ⎟ ⎪
⎬
Lös(𝐴, 𝑏) = ⎜
⎜ 𝑥3 ⎟ ∈ Mat(5, 1; R) 𝑥2 , 𝑥3 ∈ R
⎟
1
𝑏2
⎪
⎪ ⎝ ⎠ ⎪
⎪
3
⎪
⎪ ⎪
⎪
𝑏3
⎩ ⎭
⎛ ⎞ ⎧⎛ ⎞ ⎛ ⎞⎫
0 ⎪
⎪ 1 0 ⎪ ⎪
⎜𝑏1 − 7𝑏3 ⎟ ⎪
⎪
⎨ ⎜ 0 ⎟ ⎜ −2 ⎟⎪ ⎪
⎜ ⎟ ⎜ ⎟⎬
= ⎜ 0 ⎟ + Lineare Hülle ⎜0⎟ , ⎜ 1 ⎟
⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 1 𝑏2 ⎠ ⎪
⎪ ⎝0⎠ ⎝ 0 ⎠⎪ ⎪
3
⎪
⎪ ⎪
⎪
𝑏3 0 6
⎩ ⎭
Definition 7.27
Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾) mit Zeilenvektoren 𝑣𝑖 = (𝑎)𝑛 1
𝑖 = 1 𝑗 = 1 ∈ Mat(1, 𝑛; 𝐾).
Eine elementare Zeilentransformationvon 𝐴 ist eine der folgenden Umformungen von 𝐴.
𝑣𝑖 ↦→ 𝑘 · 𝑣𝑖
2 𝑧 𝑖𝑗 (𝑘), 𝑖 ̸= 𝑗 Addition des 𝑘-fachen der 𝑗-ten Zeile zur 𝑖-ten Zeile.
𝑣𝑖 ↦→ 𝑣𝑖 + 𝑘𝑣𝑗
𝑣𝑖 ↦→ 𝑣𝑗 𝑣𝑗 ↦→ 𝑣𝑖
97
Wir schreiben 𝑧 𝑖 (𝑘)(𝐴), 𝑧 𝑖𝑗 (𝑘)(𝐴) und 𝑧 𝑖𝑗 (𝐴).
Beispiel.
⎛ ⎞ ⎛ ⎞
1 2 3 4 2 4 6 8
1
𝑧 (2) : 1
⎝ 1 1 1 → 1
⎠ ⎝ 1 1 1⎠
0 1 0 1 0 1 0 1
⎛ ⎞ ⎛ ⎞
1 2 3 4 1 2 3 4
23
𝑧 (6) : 1
⎝ 1 1 1 → 1
⎠ ⎝ 7 1 7⎠
0 1 0 1 0 1 0 1
⎛ ⎞ ⎛ ⎞
1 2 3 4 0 1 0 1
13 ⎝
𝑧 : 1 1 1 1⎠ → ⎝1 1 1 1⎠
0 1 0 1 1 2 3 4
Proposition 7.28
Die elementaren Zeilentransformationen von 𝐴 können durch Linksmultiplikation von 𝐴
mit folgenden invertierbaren 𝑚 × 𝑚 Matrizen realisiert werden.
0⎟
⎛ ⎞
1
⎜
⎜ ... ⎟
⎜ ⎟
⎜ 1 ⎟
⎟ 𝑖-te Zeile
𝑖
⎜ ⎟
𝑇 (𝑘) = ⎜
⎜ 𝑘 ⎟
⎜ 1 ⎟
...
⎜ ⎟
⎜ ⎟
⎝ ⎠
0 1
98
𝑗-te Spalte
0⎟
⎛ ⎞
1
⎜ ...
⎜ ⎟
1
⎜ ⎟
⎜ ⎟
𝑖𝑗
⎜
𝑇 (𝑘) = ⎜ ... ⎟
⎟
⎜ ⎟
1 𝑘 ⎟ 𝑖-te Zeile
⎜ ⎟
⎜
..
.
⎜ ⎟
⎝ ⎠
0 1
Beweis.
Dass die Linksmultiplikation der entsprechenden Matrizen 𝑇 𝑖 (𝑘), 𝑇 𝑖𝑗 (𝑘), 𝑇 𝑖𝑗 den elemen-
taren Zeilentransformationen entsprechen, rechnet man leicht nach.
Wir machen dies für 𝑇 𝑖𝑗 (𝑘).
𝑇 𝑖𝑗 (𝑘) = 1𝑚 + 𝑘𝐸 (𝑖𝑗)
99
wobei 𝐸 (𝑖𝑗) die 𝑛 × 𝑛 Matrix ist mit
{︃
1 𝑎=𝑖∧𝑏=𝑗
(𝐸 (𝑖𝑗) )𝑎𝑏 =
0 sonst.
Daher
𝑇 𝑖𝑗 (𝑘) · 𝐴 = (1𝑚 + 𝑘𝐸 (𝑖𝑗) ) · 𝐴 = 𝐴 + 𝑘𝐸 (𝑖𝑗) · (𝐴).
Man berechnet 𝑚
∑︁
(𝑖𝑗)
(𝐸 · 𝐴)𝑟𝑠 = (𝐸 (𝑖𝑗) )𝑟𝑡 𝑎𝑡𝑠 = 𝛿𝑟𝑖 𝑎𝑗𝑠 .
𝑡=1
Also ist 𝐸 (𝑖𝑗) · 𝐴 die Matrix, deren 𝑖-ter Zeilenvektor genau der 𝑗-te Zeilenvektor Von 𝐴
ist und alle anderen Zeilenvektoren sind 0.
Also
𝑇 (𝑖𝑗) (𝑘) · 𝐴 = 𝑧 𝑖𝑗 (𝑘)(𝐴).
Übung: Analog für 𝑇 𝑖 (𝑘), 𝑇 𝑖𝑗 .
Zur Invertierbarkeit betrachtet man
𝑇 𝑖𝑗 (−𝑘)·𝑇 𝑖𝑗 (𝑘) = (1𝑚 −𝑘𝐸 (𝑖𝑗) )(1𝑚 +𝑘𝐸 (𝑖𝑗) ) = (1𝑚 −𝑘𝐸 (𝑖𝑗) )+𝑘𝐸 (𝑖𝑗) )−𝑘 2 𝐸 (𝑖𝑗) 𝐸 (𝑖𝑗) = 1𝑚 ,
𝑎𝑖^𝑗
𝐴 ↦→ 𝑍 𝑖1 (− )(𝐴).
𝑎1^𝑗
100
Schritt 3 : Sei 𝑣 der erste Zeilenvektor von 𝐴, dieser wird nun nicht mehr verändert. Wir
hängen in an 𝐵 an: (︂ )︂
𝐵
𝐵 ↦→ ∈ Mat(1, 𝑛; 𝐾)
𝑣
und streichen ihn aus 𝐴. Die neue Matrix 𝐴 hat(︂ eine
)︂ Zeile weniger. Ist 𝐴 = 0 oder
𝐵
hat keine Zeilen mehr, so ist die Matrix 𝐴′ = in der Zeilenstufenform.
𝐴
Andernfalls nehmen wir das neue 𝐴 und starten wieder mit Schritt 1.
Beweis.
Was passiert in Schritt 1 und 2?
𝐴 wird so umgeformt (durch elementare Zeilentransformationen), dass ein von 0 verschie-
denes Element an der Stelle 𝑎𝑖^𝑗 steht (Schritt 1) und (nach Schritt 2) alle Matrixeinträge
𝑎𝑖𝑗 = 0 mit 𝑗 < ^𝑗
𝑎𝑖𝑗 = 0 mit 𝑖 > 1.
Dies wird sukzessive für die Matrix wiederholt, die man durch Wegstreichen der ersten
Zeile erhält.
Spätestens nach 𝑚 − 1 Durchgängen ist 𝐴 in der Zeilenstufenform.
Beispiel.
↓
⎛ ⎞
0 1 2 3
⎜5 0 2 1⎟
𝐴 =⎜ ⎝0 1
⎟
0 1⎠
0 2 1 1
^𝑗 = 1, ^𝑖 = 2
⎛ ⎞
5 0 2 1
−−−−−→ ⎜ 0 1
⎜ ⎟
𝑍 12 2 3 ⎟ 2. Schritt ist nicht notwendig.
⎜
⎟
1.𝑆𝑐ℎ𝑟𝑖𝑡𝑡 ⎝ 0 1 0 1 ⎠
0 2 1 1
101
⎛ ⎞
⎛ ⎞ 5 0 2 1
5 0 2 1 ⎜ ⎟
𝑍 32 (−1) ⎜ 0 2 2 3 ⎟ 𝑍 42 (−2) ⎜ 0 2 2 3 ⎟
−−−−→ ⎜ ⎟ −−−−→ ⎜ ⎟
⎝ 0 0 −2 −2 ⎠
⎝ 0 0 -2 −2
⎜ ⎟
⎠
0 2 1 1
0 0 −3 −5
5
⎛ ⎞
0 2 1
𝑍 43 (− 32 ) ⎜ 0 1 2 3 ⎟
−−−−−→ ⎜ ⎟
⎝ 0 0 -2 −2 ⎠
0 0 0 -2
Korollar 7.30. Sei 𝐴 ∈ Mat(𝑚, 𝑛; 𝐾), so existiert eine invertierbare Matrix 𝐶 ∈ GL𝑚 (𝐾),
so dass 𝐶 ·𝐴 in Zeilenstufenform ist. Für den Lösungsraum des linearen Gleichungssystems
𝐴 · 𝑥 = 𝑏 gilt dann
Lös(𝐴, 𝑏) = Lös(𝐶 · 𝐴, 𝐶 · 𝐵).
In der Praxis berechnet man nicht
(︀ 𝐶, sondern wendet die elemenatare Zeilentransforma-
tionen auf die erweiterte Matrix 𝐴 𝑏 an.
)︀
Beispiel.
𝑥1 + 0𝑥2 − 𝑥3 + 2𝑥4 = 3
2𝑥1 + 𝑥2 + 0 · 𝑥3 + 𝑥4 = 1
0 · 𝑥1 − 3𝑥2 + 𝑥3 − 𝑥4 = 0
Bringe in Zeilenstufenform
(︀ )︀
𝐴 𝑏
1 1
⎛ ⎞ ⎛ ⎞
21
0 −2 2 3 32
0 −2 2 3
𝑍 (−2) 𝑍 (3)
−−−−→ ⎝ 0 1 2 −3 −5 ⎠ −−−→ ⎝ 0 1 2 −3 −5 ⎠
0 −3 1 −1 0 0 0 7 −10 −15
Also Rang(𝐴) = 3, also 𝑏 ∈ Spaltenraum(𝐴).
→ Lösungsraum ist ein 1-dimensionaler affiner Raum. 𝑥4 ist eine freie Variable, 𝑥1 .𝑥2 , 𝑥3
sind durch 𝑥4 bestimmt.
15 10
𝑥3 = − + 𝑥4
7 7
5 1
𝑥2 = −5 − 2𝑥3 + 3𝑥4 = − + 𝑥4
7 7
6 4
𝑥1 = 3 + 𝑥3 − 2𝑥4 = − 𝑥4
7 7
also ⎛ ⎞ ⎛ ⎞
6 −4
1⎜ −5 ⎜1⎟
Lös(𝐴, 𝑏) = ⎜
⎟
⎟ + R⎜ ⎟.
7 ⎝−15⎠ ⎝ 10 ⎠
0 1
102
Lineare Gleichungssysteme kann man auch zum invertieren von Matrizen verwenden: Sei
𝐴 ∈ Mat(𝑚, 𝑛; 𝐾). Dann ist 𝐴 invertierbar genau dann, wenn
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
surjektiv und damit bijektiv ist.
Dann ist Spaltenraum(𝐴) = Mat(𝑛, 1; 𝐾) und 𝐴 · 𝑥 = 𝑏 hat eine Lösung für jedes
𝑏 ∈ Mat(𝑛, 1; 𝐾). Zudem ist ker(𝐴∙) = Lös(𝐴, 0) = {0}, also ist die Lösung eindeutig.
Betrachte nun 𝑠𝑖 ∈ Mat(𝑛, 1; 𝐾) die eindeutige Lösung, so dass 𝐴 · 𝑠𝑖 = 𝑒𝑖 , wobei 𝑒𝑖 den
𝑖-ten Basisvektor der Standardbasis von Mat(𝑛, 1; 𝐾) darstellt.
Betrachte die Matrix 𝐵, die aus den Spaltenvektoren 𝑠1 , . . . , 𝑠𝑛 gebildet wird. Dann gilt
𝐴 · 𝐵 = (𝑒1 . . . 𝑒𝑛 ) = 1𝑛 .
Also ist 𝐵 = 𝐴−1 .
Die
(︀ 𝑠1 , . . )︀. 1𝑛 kann man alle gleichzeitig betrachten, wenn man die erweiterte Matrix
𝐴 1𝑛 betrachtet und in Zeilenstufenform bringt.
Da 𝐴 invertierbar ist, lässt sich 𝐴 durch elementare Zeilentransformationen sogar in eine
Einheitsmatrix überfüren. Danns steht auf der rechten Seite die Inverse
𝐴 1𝑚 −−−−−−−−−−−−−→ 1 𝐵
(︀ )︀ elementare (︀ )︀
Zeilentransformationen
Beispiel. ⎛ ⎞
1 2 3
𝐴 = ⎝−1 2 0⎠
0 1 1
Invertiere 𝐴:
1 2 3 1 1
⎛ ⎞ ⎛ ⎞
0 0 2 3 1 0 0
𝑍 21 (1)
𝐴 1𝑚 4
(︀ )︀
= ⎝ −1 2 0 0 1 0 ⎠ ====⇒ ⎝ 0 3 1 1 0 ⎠
0 1 1 0 0 1 0 1 1 0 0 1
⎛ ⎞ ⎛ ⎞
1 2 3 1 0 0 1 2 3 1 0 0
𝑍 32 (− 41 ) 𝑍 3 (4)
===== ⇒⎝ 0 4 3 1 1 0 ⎠ ===⇒ ⎝ 0 4 3 1 1 0 ⎠
0 0 14 − 14 − 41 1 0 0 1 −1 1 4
⎛ ⎞ ⎛ ⎞
1 2 3 1 0 0 1 2 3 1 0 0
𝑍 23 (−3) 𝑍 2 ( 14 )
=====⇒ ⎝ 0 4 0 4 4 −12 ⎠ ==== ⇒ ⎝ 0 1 0 1 1 −3 ⎠
0 0 1 −1 −1 4 0 0 1 −1 −1 4
⎛ ⎞ ⎛ ⎞
1 2 0 4 3 −12 1 0 0 2 1 −6
𝑍 13 (−3) 𝑍 12 (−2)
=====⇒ ⎝ 0 1 0 1 1 −3 ⎠ =====⇒ 0 ⎝ 1 0 1 1 −3 ⎠
0 0 1 −1 −1 4 0 0 1 −1 −1 4
⎛ ⎞
2 1 −6
Also 𝐴−1 = ⎝ 1 1 −3⎠
−1 −1 4
Prüfe:
𝐴 · 𝐴−1 = 1𝑛
103
Bemerkung. Umformungen in Zeilenstufenform mittels elementarer Zeilentransformatio-
nen sind nützlich zur Bestimmung von
1 Rang(𝐴)
8 Determinanten
8.1 Alternierende Multilinearform
Definition 8.1
Seien 𝑉, 𝑊 𝐾-Vektorräume, 𝑘 ∈ 𝑁 . Eine Abbildung 𝛿𝑉 𝑘 → 𝑊 heißt multilinear (oder
𝑘-multilinear), falls für alle 1 ≤ 𝑖 ≤ 𝑘 und alle 𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖+1 , . . . , 𝑣𝑘 ∈ 𝑉 gilt, dass die
Abbildung
𝛿:𝑉 →𝑊
𝛿 : 𝐾𝑘 → 𝑊
𝛿 :𝑉2 →𝑊
𝛿((𝑥1 , 𝑥2 ), (𝑦1 , 𝑦2 )) = 𝑥1 · 𝑦1 · 𝛿((1, 0), (1, 0)) + 𝑥1 · 𝑦2 · 𝛿((1, 0), (0, 1))
+ 𝑥2 · 𝑦1 · 𝛿((0, 1), (1, 0)) + 𝑥2 · 𝑦2 · 𝛿((0, 1), (0, 1))
104
4 Achtung: 𝛿(𝑣1 , 𝑣2 ) + 𝛿(𝑣1 , 𝑣2′ ) = 𝛿(𝑣1 , 𝑣2 + 𝑣2′ ) , aber NICHT
Fakt 8.2
Die Menge der 𝑘-multilinearen Abbildungen 𝑉 𝑘 → 𝑊 trägt die Struktur eines 𝐾-
Vektorraumes.
Proposition 8.3
Seien 𝑣, 𝑊 𝐾-Vektorräume und 𝛿 : 𝑉 𝑘 → 𝑊 eine multilineare Abbildung. Dann sind die
folgenden Aussagen äquivalent:
Beweis.
2 ⇒ 1 : klar
multilinear 1
0 = 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 + 𝑣𝑖+1 , 𝑣𝑖+1 + 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )
multilinear 1
= 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 , 𝑣𝑖+1 + 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )
+ 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 , 𝑣𝑖+1 + 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )
multilinear 1
= 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 , 𝑣𝑖+1 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )
+ 𝛿(𝑣1 , . . . , 𝑣𝑖−1 , 𝑣𝑖 , 𝑣𝑖+1 , 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 )
Also gilt: Vertauschen benachbarter Argumente (𝑣𝑖 ↔ 𝑣𝑖+1 ) ändert das Vorzeichen von 𝛿,
also
𝛿(𝑣1 , . . . , 𝑣𝑖 , 𝑣𝑖+1 , 𝑣𝑖+2 , . . . , 𝑣𝑘 ) = −𝛿(𝑣1 , . . . , 𝑣𝑖+1 , 𝑣𝑖 , 𝑣𝑖+2 , . . . , 𝑣𝑘 ).
Daher folgt für 𝑣1 , . . . , 𝑣𝑘 ∈ 𝑉 mit 𝑣𝑖 = 𝑣𝑗 für 𝑖 < 𝑗
1
𝛿(𝑣1 , . . . , 𝑣𝑘 ) = (−1)𝑗−𝑖−1 · 𝛿(𝑣1 , . . . , 𝑣𝑖 , 𝑣𝑗 , 𝑣𝑖+1 , . . . , 𝑣𝑘 = 0.
Definition 8.4
Eine multilineare Abbildung 𝛿 : 𝑉 * → 𝑊 , die eine der äquivalenten Bedingungen in
Proposition 8.3 erfüllt, heißt alternierend .
105
Korollar 8.5. Seien 𝑉, 𝑊 𝐾-Vektorräume. Die Menge
𝑆𝑛 = Bij(𝑋, 𝑋).
Definition 8.8
Für eine Permutation 𝜋 ∈ 𝑆𝑛 definieren wir die Menge der Fehlstände von 𝜋:
Wir nennen 𝑙(𝜋) := |𝐹𝜋 | die Länge von 𝜋, und sign(𝜋) = (−1)𝑙(𝜋) das Signum von 𝜋. Man
nennt 𝜋 gerade, falls sign(𝜋) = 1, und 𝜋 ungerade, falls sign(𝜋) = −1.
Satz 8.9
Es gilt
106
1 sign(𝑒) = 1
∏︁ 𝜎(𝑖) − 𝜎(𝑗) ∏︁ 𝜎(𝑎) − 𝜎(𝑏)
2 sign(𝜎) = =
1≤𝑖<𝑗≤𝑛
𝑖−𝑗 𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏
Beweis.
1 klar
(−1)|𝐹𝜋 | = sign 𝜎.
107
3 Wir beutzen 2 .
∏︁ (𝜋 ∘ 𝜎)(𝑎) − (𝜋 ∘ 𝜎)(𝑏)
sign(𝜋 ∘ 𝜎) =
𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏
∏︁ (𝜋 ∘ 𝜎)(𝑎) − (𝜋 ∘ 𝜎)(𝑏) 𝜎(𝑎) − 𝜎(𝑏)
= ·
𝜎(𝑎) − 𝜎(𝑏) 𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏
∏︁ (𝜋 ∘ 𝜎)(𝑎) − (𝜋 ∘ 𝜎)(𝑏) ∏︁ 𝜎(𝑎) − 𝜎(𝑏)
=
𝜎(𝑎) − 𝜎(𝑏) 𝑎−𝑏
{𝑎,𝑏}⊂{1,...,𝑛} {𝑎,𝑏}⊂{1,...,𝑛}
𝑎̸=𝑏 𝑎̸=𝑏
= sign(𝜋) sign(𝜎)
[Wir benutzen wieder, dass wenn {𝑎, 𝑏} alle 2-elementigen Teilmengen durchläuft,
so auch {𝜎(𝑎), 𝜎(𝑏)}.]
4 Sei 𝜏 = (𝑖𝑗) eine Transposition. OBdA kann angenommen werden, dass 𝑖 < 𝑗. Dann
ist die Menge der Fehlstände gegeben durch die disjunkte Vereinigung
∙
⋃︁ ∙
⋃︁
𝐹𝜏 = { (𝑖, 𝑙) | 𝑖 < 𝑙 < 𝑗 } { (𝑙, 𝑗) | 𝑖 < 𝑙 < 𝑗 } {(𝑖, 𝑗)}
𝐴𝑛 := ker(sign) = { 𝜋 ∈ 𝑆𝑛 | sign(𝜋) = 1 }
Bemerkung. Falls 𝐾 ein Körper mit char(𝐾) ̸= 2, dann ist äquivalent dazu, dass 𝛿
alternierend ist. Falls char(𝐾) = 2 ist das nicht der Fall, da aus 𝑣 = −𝑣 nicht folgt, dass
𝑣 = 0 sein muss.
Satz 8.12
Sei 𝑉 ein 𝐾-Vektorraum der Dimension 𝑛. Dann gilt dim(Alt𝑛 (𝑉, 𝐾)) = 1. D.h. alle von
Null verschiedenen Elemente in Alt𝑛 (𝑉, 𝐾) sind proportional zueinander, d.h. sei 𝛿, 𝛿 ′ ∈
Alt𝑛 (𝑉, 𝐾), 𝛿 ̸= 0, 𝛿 ′ ̸= 0, dann ∃𝑘 ∈ 𝐾, 𝛿 ′ = 𝑘 · 𝛿. Man nennt sie Determinantenformen.
108
Beweis.
Sei 𝐵 = (𝑏1 , . . . 𝑏𝑛 ) eine geordnete Basis von 𝑉 . Seien 𝑣1 , . . . , 𝑣𝑛 beliebig. Sei
𝑛
∑︁
𝑣𝑖 = 𝑎𝑗𝑖 𝑏𝑗 mit 𝑎𝑖𝑗 ∈ 𝐾, 1 ≤ 𝑖, 𝑗 ≤ 𝑛.
𝑗=1
Dann gilt
𝑛
∑︁ 𝑛
∑︁
𝛿(𝑣1 , . . . 𝑣𝑛 ) = ··· 𝑎𝑗1 1 . . . 𝑎𝑗𝑛 𝑛 𝛿(𝑏𝑗1 . . . 𝑏𝑗𝑛 )
𝑗1 =1 𝑗𝑛 =1
Da 𝛿 alternierend ist, bleiben nur Terme übrig, für die alle 𝑗𝑟 1 ≤ 𝑟 ≤ 𝑛 paarweise
verschieden sind.
Also gibt es eine Permutation 𝜎 ∈ 𝑆𝑛 mit 𝑝𝑟 = 𝜎(𝑟) für alle 1 ≤ 𝑟 ≤ 𝑛. Für jede solche
Permutation taucht genau ein Summand auf, also
𝑛
𝐾𝑜𝑟𝑜𝑙𝑙𝑎𝑟 8.11
∑︁
𝛿(𝑣1 , . . . 𝑣𝑛 ) = 𝑎𝜎(1)1 . . . 𝑎𝜎(𝑛)𝑛 𝛿(𝑏𝜎(1) , . . . , 𝑏𝜎(𝑛) )
𝜎∈𝑆𝑛
𝑛
𝐾𝑜𝑟𝑜𝑙𝑙𝑎𝑟 8.11
∑︁
= sign( 𝜎)𝑎𝜎(1)1 . . . 𝑎𝜎(𝑛)𝑛 𝛿(𝑏1 , . . . , 𝑏𝑛 )
𝜎∈𝑆𝑛
nennt man auch die Entwicklungsformel von Leibniz. Falls 𝛿(𝑏1 , . . . , 𝑏𝑛 ) = 0, so ist
𝛿 = 0. Falls 𝛿(𝑏1 , . . . , 𝑏𝑛 ) ̸= 0, so kann jedes 𝛿 ′ ∈ Alt𝑛 (𝑉, 𝐾) durch skalare Multiplikation
mit einem Element aus 𝐾 von 𝛿 erhalten werden.
𝛿 ′ (𝑏1 , . . . , 𝑏𝑛 )
𝛿′ = 𝛿.
𝛿(𝑏1 , . . . , 𝑏𝑛 )
Noch zu zeigen: Es gibt mindestens ein 𝛿 ∈ Alt𝑘 (𝑉, 𝐾) mit 𝛿 ̸= 0, so dass ein 𝛿 existiert,
z.B. setzen wir 𝛿(𝑏1 , . . . 𝑏𝑛 ) = 1.
(︂ )︂
𝑘 𝑛
Bemerkung. dim(Alt (𝑉, 𝐾)) =
𝑘
Proposition 8.13
Sei 𝑉 ein 𝐾-Vektorraum und dim(𝑉 ) = 𝑛. Sei 𝛿 ∈ Alt𝑘 (𝑉, 𝐾) eine Determinantenform
auf 𝑉 . Dann gilt für alle 𝑣1 , . . . , 𝑣𝑛 ∈ 𝑉
Beweis.
109
„⇐“ Sei {𝑣1 , . . . , 𝑣𝑛 } linear abhängig. Dann gibt es 𝑙1 , . . . , 𝑙𝑛 ∈ 𝐾 so dass
𝑛−1
∑︁
𝑣𝑛 = 𝑙𝑖 𝑣𝑖 .
𝑖=1
„⇒“ Sei {𝑣1 , . . . , 𝑣𝑛 } linear unabhängig, dann ist {𝑣1 , . . . , 𝑣𝑛 } eine Basis von 𝑉 . Wäre
dann 𝛿(𝑣1 , . . . , 𝑣𝑛 ) = 0, so wäre zwangsläufig 𝛿 = 0. Dies ist aber ein Widerspruch
dazu, dass 𝛿 in Determinantenform ist. Also muss 𝛿(𝑣1 , . . . , 𝑣𝑛 ) ̸= 0 sein.
Satz 8.14
Sei 𝑉 ein 𝐾-Vektorraum und dim(𝑉 ) = 𝑛 und sei 𝑓 : 𝑉 → 𝑉 ein Endomorphismus.
Dann existiert ein 𝑑𝑓 ∈ 𝐾, so dass für alle Determinantenformen 𝛿 auf 𝑉 gilt: für alle
𝑣1 , . . . , 𝑣𝑛 ∈ 𝑉 gilt
Das Element 𝑑𝑓 ∈ 𝐾 hängt nur von dem Endomorphismus 𝑓 ab und wird die
Determinante von 𝑓 genannt. Man schreibt
𝑑𝑓 =: det(𝑓 ) ∈ 𝐾
Beweis.
Man sieht leicht, dass 𝑓 * 𝛿 ∈ Alt𝑛 (𝑉, 𝐾) ist und dass die Abbildung
linear ist.
Falls 𝛿 ̸= 0, so ist 𝑓 * 𝛿 ein 𝐾-Vielfaches von 𝛿, also
𝑓 * 𝛿 ′ = 𝑓 * (𝑙 · 𝛿) = 𝑙 · 𝑓 * 𝛿 = 𝑙 · (𝑑 · 𝛿) = (𝑙 · 𝑑) · 𝛿 = 𝑑 · (𝑙 · 𝛿) = 𝑑 · 𝛿 ′ .
Proposition 8.15
Sei 𝑉 ein 𝐾-Vektorraum mit dim(𝑉 ) = 𝑛. Es gilt für det : Hom(𝑉, 𝑉 ) → 𝐾
110
2 det(𝑙 · 𝑓 ) = 𝑙𝑛 · det(𝑓 ) ∀𝑙 ∈ 𝐾, 𝑓 ∈ Hom(𝑉, 𝑉 )
3 det(0) = 0, det(𝑖𝑑𝑉 ) = 1.
det(𝑓 ) ̸= 0.
Beweis.
Sei 𝛿 eine Determinantenform auf 𝑉 .
1 Es gilt:
Proposition 8.16
Sei 𝑉 ein 𝐾-Vektorraum mit dim(𝑉 ) = 𝑛. Sei 𝐵 = (𝑏1 , . . . , 𝑏𝑛 ) eine geordnete Basis von
𝑉 und 𝑓 : 𝑉 → 𝑉 ein Endomorphismus mit Matrixdarstellung
𝐴 = (𝑎𝑖𝑗 )𝑛 𝑛
𝑖 = 1 𝑗 = 1 = Matℬℬ ∈ Mat(𝑛, 𝑛; 𝐾).
∑︁
det(𝑓 ) = sign 𝜎𝑎𝜎1 1 . . . 𝑎𝜎𝑛 𝑛 .
𝜎∈𝑆𝑛
111
Beweis.
wobei im letzten Schritt die Leibnizsche Entwicklungsformel (Satz 8.12) verwendet wurde.
Also gilt ∑︁
det(𝑓 ) = sign(𝜎) 𝑎𝜎1 1 . . . 𝑎𝜎𝑛 𝑛 .
𝜎∈𝑆𝑛
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
det(𝐴) := det(𝐴∙)
Bemerkung.
1 Die Formel kann man verwenden, um die Determinante für Matrizen mit Einträgen
in einem Ring definieren
z.B. 𝐴 ∈ Mat(𝑛, 𝑛; Z).
Beispiel.
112
3 Sei 𝐴 ∈ (𝑎𝑖𝑗 )𝑛
𝑖 = 1 𝑗 = 1 eine obere Dreiecksmatrix, d.h.
𝑛 𝑎𝑖𝑗 = 0 für alle 𝑖 > 𝑗
⎛ ⎞
*
⎜
⎜
⎜
⎜
*
*
* ⎟
⎟
⎟
⎟
⎜
⎜ * ⎟
⎟
*
⎜ ⎟
⎜ ⎟
*
⎜ ⎟
⎜ ⎟
*
⎜ ⎟
⎜ ⎟
*
⎜ ⎟
⎜ ⎟
0 *
⎜ ⎟
⎝ ⎠
*
Es tauchen in det(𝐴) nur Summanden auf, für die 𝜎(𝑖) ≤ 𝑖 für alle 1 ≤ 𝑖 ≤ 𝑛. Dies
ist nur für 𝑒 ∈ 𝑆𝑛 erfüllt. Also folgt det(𝐴) = 𝑎11 · 𝑎22 · · · · · 𝑎𝑛𝑛 . Ein Speziallfall
davon sind Diagonalmatrizen
𝑎11 0
⎛ ⎞
..
⎜ . ⎟
𝐴=⎜
⎜ ⎟
⎝ . ..
⎟
⎠
0 𝑎𝑛𝑛
4 Sei 𝑐1 . . . 𝑐𝑛 ∈ 𝐾, 𝐵 ∈ Mat(𝑛 − 1, 𝑛 − 1; 𝐾)
⎛ ⎞
𝑐1
..
⎜
⎜
⎜ B .
..
⎟
⎟
⎟
𝐴=⎜
⎜ . ⎟
⎟
⎜
⎝ 𝑐𝑛−1 ⎟
⎠
0 ... ... 0 𝑐𝑛
113
3 det(0) = 0 det(1𝑛 ) = 1
4 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) ist genau dann invertierbar, wenn det(𝐴) ̸= 0.
Dann gilt det(𝐴−1 ) = (det(𝐴))−1 .
Korollar 8.20. Die Abbildung
det : 𝐺𝐿𝑛 (𝐾) → 𝐾 ∖ {0}
ist ein Gruppenhomomorphismus in die multiplikative Gruppe.
Der Kern ker(det) ist eine Untergruppe.
ker(det) =: 𝑆𝐿𝑛 (𝐾) = { 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) | det(𝐴) = 1} ⊂ GL𝑛 (𝐾)
Sie heißt Spezielle lineare Gruppe.
Proposition 8.21
114
Proposition 8.22
Wir können die Determinante als Determinantenform in Alt𝑛 (Mat(𝑛, 1; 𝐾), 𝐾) auffassen.
(𝑠1 . . . 𝑠𝑛 ) ist die Matrix mit Spaltenvektoren 𝑠1 . . . 𝑠𝑛 .
Dann entspricht die Determinante der Determinantenform 𝛿 ∈ Alt𝑛 (Mat(𝑛, 1; 𝐾), 𝐾) für
die gilt 𝛿(𝑒1 , . . . , 𝑒𝑛 ) = 1.
Insbesondere gilt folgendes Verhalten unter elementaren Spaltentransformationen
det(𝐴) = det(𝐴∙)
(𝐴∙)* 𝛿(𝑒1 , . . . , 𝑒𝑛 )
=
𝛿(𝑒1 , . . . , 𝑒𝑛 )
= 𝛿(𝐴 · 𝑒1 , . . . , 𝐴 · 𝑒𝑛 )
= 𝛿(𝑠1 , . . . , 𝑠𝑛 )
Das Verhalten unter elementaren Spaltentransformationen folgt dann aus der Multilinea-
rität und der alternierenden Eigenschaft.
Bemerkung. Dies kann man benutzen, um Determinanten von 𝐴 zu berechnen, indem
man 𝐴 in Zeilenstufenform bringt. Da jede Matrix in Zeilenstufenform eine obere Drei-
ecksmatrix ist.
Beispiel.
⎛ ⎞ ⎛ ⎞
0 15 3 1 1 0
𝑧 13
det ⎝4 9 2⎠ = − det ⎝4 9 2⎠
1 1 0 0 15 3
⎛ ⎞ ⎛ ⎞
1 1 0 1 1 0
𝑧 21 (−4) 𝑧 32 (−3)
= − det ⎝0 5 2⎠ = − det ⎝0 5 2 ⎠ = −1 · 5 · (−3) = 15
0 15 3 0 0 −3
Definition 8.23
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Dann ist 𝐴[𝑖𝑗] ∈ Mat(𝑛 − 1, 𝑛 − 1; 𝐾)die Matrix, die aus 𝐴 durch
Streichung der 𝑖-ten Zeile und der 𝑗-ten Spalte hervorgeht.
115
Satz 8.24 (Laplace’scher Entwicklungssatz)
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Dann gilt für alle 1 ≤ 𝑗 ≤ 𝑛
𝑛
∑︁
det(𝐴) = (−1)𝑖+𝑗 𝑎𝑖𝑗 det(𝐴[𝑖𝑗]).
𝑖=1
Dies nennt man Entwicklung der Determinanten nach der 𝑗-ten Spalte.
𝑗-te Spalte
⎛ ⎞
𝑎11 . . . . . . 𝑎1𝑛
⎜ .. .. ⎟
⎜ . . ⎟
𝐴=⎜ ⎟ 𝑖-te Zeile
⎜ . .. ⎟
⎝ .. . ⎠
𝑎𝑛1 𝑎𝑛𝑛
⎛ ⎞
𝑎11 . . . 𝑎1(𝑗−1) 𝑎1(𝑗+1) . . . 𝑎1𝑛
⎜ .. .. ⎟
⎜ . . ⎟
⎜ ⎟
⎜𝑎(𝑖−1)1 . . . 𝑎(𝑖−1)𝑛
⎟
𝐴[𝑖𝑗] = ⎜
⎜𝑎(𝑖+1)1
⎟
. . . 𝑎(𝑖+1)𝑛 ⎟
⎜ .. .. ⎟
⎜ ⎟
⎝ . . ⎠
𝑎𝑛1 ... ... ... ... 𝑎𝑛𝑛
Beispiel. ⎛ ⎞
1 2 3
det ⎝ 4 5 6 ⎠ ; 𝑗=1
7 8 9
⎛ ⎞
1 2 3 (︂ )︂ (︂ )︂ (︂ )︂
5 6 2 3 2 3
det ⎝4 5 6 ⎠ = 1 · det − 4 · det + 7 · det
8 9 8 9 5 6
7 8 9
Beweis.
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Seinen 𝑠1 , . . . , 𝑠𝑛 die Spaltenvektoren von 𝐴 mit 𝑠𝑗 = 𝑛𝑖=1 𝑎𝑖𝑗 𝑒𝑖 .
∑︀
Sei Alt𝑛 (Mat(𝑛, 1; 𝐾)) mit 𝛿(𝑒1 , . . . , 𝑒𝑛 ) = 1.
det(𝐴) = 𝛿(𝑠1 , . . . , 𝑠𝑗 , . . . , 𝑠𝑛 )
∑︁𝑛
= 𝛿(𝑠1 , . . . , 𝑠𝑗−1 , 𝑎𝑖𝑗 𝑒𝑖 , 𝑠𝑗+1 , . . . , 𝑠𝑛 )
𝑖=1
𝑛
∑︁
= 𝑎𝑖𝑗 𝛿(𝑠1 , . . . , 𝑠𝑗−1 , 𝑒𝑖 , 𝑠𝑗+1 , . . . , 𝑠𝑛 )
𝑖=1
𝑛
∑︁
= det(𝑠1 . . . 𝑠𝑗−1 𝑒𝑖 𝑠𝑗+1 . . . 𝑠𝑛 )
𝑖=1
116
det(𝑠1 . . . 𝑠𝑗−1 𝑒𝑖 𝑠𝑗+1 . . . 𝑠𝑛 ) = (−1)𝑛−𝑗 det(𝑠1 . . . 𝑠𝑗−1 𝑠𝑗+1 . . . 𝑠𝑛 𝑒𝑖 )
Wenn wir die Zeilen so vertauschen, das in der letzten Spalte der Eintrag 1 in die letzte
Zeile kommt, so erhalten wir die Matrix
⎛ ⎞
0
.. ⎟
. ⎟
⎜
𝐴[𝑖, 𝑗]
⎜
⎜ ⎟ = 𝑀𝑖,𝑗
⎜
⎝ 0 ⎟
⎠
* ... * 1
und
Also folgt
𝑛
∑︁
det(𝐴) = 𝑎𝑖𝑗 det 𝐴[𝑖, 𝑗].
𝑖=1
Definition 8.25
Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Die komplementäre Matrix zu 𝐴:
𝐴# = (𝑎#
𝑖𝑗 ) ∈ Mat(𝑛, 𝑛; 𝐾)
Bemerkung. det 𝐴[𝑖, 𝑗] nennt man auch den (𝑖, 𝑗)-ten Minor von 𝐴.
Bemerkung. Die Matrix 𝐴# nennt man auch die Adjunkte von 𝐴. Die Kofaktormatrix
zu 𝐴 ist
(𝐴# )𝑇 .
117
Beispiel. ⎛ ⎞
1 2 3
𝐴 = ⎝4 5 7⎠
2 1 0
⎛ (︂ )︂ (︂ )︂ (︂ )︂⎞
5 7 2 3 2 3
det − det det
(︂1 0)︂ (︂1 0)︂ (︂5 7)︂⎟
⎜ ⎛ ⎞
⎜ ⎟ −7 3 −1
⎜ 4 7 1 3 1 3 ⎟ ⎝
⎟
𝐴# = ⎜
⎜− det 2 0 det − det = 14 −6 5 ⎠
⎜ (︂ )︂ (︂2 0)︂ (︂4 7)︂⎟⎟ −6 3 −3
⎝ 4 5 1 2 1 2 ⎠
det − det det
2 1 2 1 4 5
𝐴 · 𝐴# = det(𝐴) · 1𝑛 = 𝐴# · 𝐴.
wobei 𝐵𝐽 die Matrix ist, die man erhält, wenn man in 𝐴 den 𝑗-ten Spaltenvektor durch
b eretzt.
Beweis.
𝑛
∑︁
(𝐴 · 𝐴# )𝑖𝑖 = 𝑎𝑖𝑗 𝑎#
𝑗𝑖
𝑗=1
𝑛
∑︁
= 𝑎𝑖𝑗 (−1)𝑖+𝑗 det 𝐴[𝑖, 𝑗] = det(𝐴) ∀1 ≤ 𝑖 ≤ 𝑛,
𝑗=1
118
Dies ist nach Satz 8.24 die Determinante det(𝐴),
˜ wobei 𝐴˜ die Matrix ist, die man erhält,
wenn man die 𝑘-te Zeile durch die 𝑖-te Zeile ersetzt und nach der 𝑘-ten Zeile entwickelt.
Für diese Matrix gilt aber det(𝐴)
˜ = 0, weil sie zwei gleiche Zeilen hat. Also folgt
𝐴 · 𝐴# = det(𝐴) · 1𝑛
𝑥 = 𝐴−1 · 𝑏.
also folgt ⎛ ⎞
det(𝐵1 )
1 ..
𝑥= . ⎠.
⎜ ⎟
det(𝐴)
⎝
det(𝐵𝑛 )
Übung:
Nehmen sie 𝐴, 𝐴# aus dem vorherigen Beispiel und rechnen sie
𝐴 · 𝐴# = det(𝐴) · 1𝑛 = 𝐴# · 𝐴
119
8.3 Orientierung
Orientierung eines reellen Vektorraums
Die Determinante erlaubt uns für einen reellen Vektorraum, eine Orientierung zu defi-
nieren. Sei 𝐴 = (𝑠1 , . . . , 𝑠𝑛 ) eine Basis von Mat(𝑛, 1; 𝑅), so gilt det(𝑠1 . . . 𝑠𝑛 ) ̸= 0. Wir
können jede Basis (𝑏1 , . . . , 𝑏𝑛 ) durch ein Element 𝑇 ∈ GL𝑛 (R) auf eine andere Basis
(𝑠1 , . . . , 𝑠𝑛 ) abbilden.
Mittels der Determinante können wir auf der Menge aller Basen eines Vektorraums 𝑉
eine Äquivalenzrelation einführen. Hierzu führen wir die Gruppe
GL+
𝑛 (R) = {𝑇 ∈ GL𝑛 (R) | det(𝑇 ) > 0 }
ein.
Lemma 8.27. Sei 𝑉 ein 𝑛-dimensionaler R-Vektorraum. Sei B die Menge der Basen von 𝑉
Die Relation
𝐴 ∼ 𝐵 :⇔ Mat𝒜ℬ (𝑖𝑑𝑣 ) ∈ GL+
𝑛 (R)
Beweis.
∼ ist eine Äquivalenzrelation.
1 𝐴 ∼ 𝐴, da Mat𝒜𝒜 (𝑖𝑑𝑉 ) = 1𝑛
Definition 8.28
Die Auswahl einer Äquivalenzklasse bezüglich ∼ heißt Orientierung des 𝑛-dimensionalen
R-Vektorraums 𝑉 . Ein Element dieser Äquivalenzklasse heißt orientierte Basis.
120
Bemerkung. Die Standardbasis (𝑒1 , . . . , 𝑒𝑛 ) gibt die kanonische Projektion auf R𝑛 , d.h.
eine Basis (𝑣1 , . . . , 𝑣𝑛 ) von R𝑛 ist orientiert, falls det(𝑣1 . . . 𝑣𝑛 ) > 0 ist.
9.1 Polynome
Definition 9.1
Ein Polynom mit Koeffizienten in einem Körper 𝐾 ist eine Folge 𝑝 = (𝑝𝑖 )∞ 𝑖=0 mit 𝑝𝑖 ∈ 𝐾
für alle 𝑖 und so dass es ein 𝑖0 ≥ 0 gibt mit 𝑝𝑖 = 0 für alle 𝑖 > 𝑖0 . Wir schreiben
𝑖0
∑︁
𝑝(𝑡) = 𝑝𝑖 𝑡𝑖 ,
𝑖=0
(𝑝𝑖 )∞
𝑖=0 ∈ 𝐾[𝑡]
mit 𝑝𝑖 = 0 für alle 𝑖. Ein Polynom heißt konstant, falls 𝑝𝑖 = 0 für alle 𝑖 > 0. Der Grad
deg(𝑝) = deg((𝑝𝑖 )∞
𝑖=0 )
121
Lemma 9.2. Die Menge aller Polynome 𝐾[𝑡] trägt die Struktur eines 𝐾-Vektorraums
(𝑝𝑖 )∞ ∞ ∞
𝑖=0 + (𝑞𝑖 )𝑖=0 := (𝑝𝑖 + 𝑞𝑖 )𝑖=0
𝑘 · (𝑝𝑖 )∞ ∞
𝑖=0 := (𝑘𝑝𝑖 )𝑖=0
Definition 9.3
Man kann Elemente von 𝐾 in Polynome einsetzten. Sei 𝑝 ∈ 𝐾[𝑡], 𝑘 ∈ 𝐾, so ist
∞
∑︁
𝑝(𝑘) := 𝑝𝑖 𝑘 𝑖 ∈ 𝐾.
𝑖=0
𝐾[𝑡] → Abb(𝐾, 𝐾)
𝑝 ↦→ (𝑘 ↦→ 𝑝(𝑘))
Bemerkung. Das Polynom kann man nicht mit der Abbildung gleichsetzten. Betrachte
z.B. 𝑝 = (𝑝𝑖 )∞
𝑖=0
𝑝(𝑡) = 𝑡2 + 𝑡 ∈ F2 [𝑡].
So ist 𝑝 nicht das Nullpolynom, aber
𝑝(𝑘) = 0 ∀𝑘 ∈ F2 = Z/2Z
𝑖
∑︁
(𝑝 · 𝑞) = (𝑟𝑖 )∞
𝑖=0 mit 𝑟𝑖 = 𝑝𝑗 𝑞𝑖−𝑗
𝑗=0
ist 𝐾[𝑡] ein kommutativer, nullteilerfreier Ring mit 1. Es gilt deg(𝑝 · 𝑞) = deg(𝑝) + deg(𝑞).
Bemerkung. 𝐾[𝑡] ist ein Ring, kein Körper, d.h. wir haben keine inversen Elemente
bezüglich der Multiplikation, also keine Divison. Aber wir können eine Division mit Rest
einführen (z.B. wie in Z).
122
Satz 9.5
Seien 𝑝, 𝑞 ∈ 𝐾[𝑡], 𝑞 =
̸ 0. Dann gibt es eindeutig bestimmte Polynome 𝑥, 𝑟 ∈ 𝐾[𝑡], so dass
𝑝 = 𝑥 · 𝑞 + 𝑟 mit deg(𝑟) < deg(𝑞).
Beweis.
Zeige zuerst die Eindeutigkeit. Nehme an, es gäbe 𝑥, 𝑥′ , 𝑟, 𝑟′ ∈ 𝐾[𝑡], so dass deg(𝑟) <
deg(𝑞), deg(𝑟′ ) < deg(𝑞) und
𝑥′ 𝑞 + 𝑟 ′ = 𝑝 = 𝑥 · 𝑞 + 𝑟
Dann folgt (𝑥′ − 𝑥) · 𝑞 = (𝑟 − 𝑟′ ). Falls (𝑥 − 𝑥′ ) ̸= 0, so folgt
deg(𝑟 − 𝑟′ ) = deg 𝑞 + deg(𝑥 − 𝑥′ ) ≥ deg(𝑞)
Dies ist ein Widerspruch zur Annahme max{deg(𝑟), deg(𝑟′ )} < deg(𝑞)}. Also (𝑥−𝑥′ ) = 0,
also 0 = (𝑟 − 𝑟′ ).
Beweis der Existenz: Vollständige Induktion über den Grad von 𝑝.
123
Definition 9.6
Ein 𝑎 ∈ 𝐾 heißt Nullstelle des Polynoms 𝑝 ∈ 𝐾[𝑡], falls 𝑝(𝑎) = 0.
Korollar 9.7. Falls 𝑎 ∈ 𝐾 eine Nullstelle von 𝑝 ∈ 𝐾[𝑡] ist, so teilt das Polynom 𝑞(𝑡) =
(𝑡 − 𝑎) ∈ 𝐾[𝑡], das Polynom 𝑝 ohne Rest, d.h. ∃𝑥 ∈ 𝐾[𝑡] mit
𝑝(𝑡) = (𝑡 − 𝑎)𝑥(𝑡).
Beweis.
Nach Satz 9.5
∃𝑥, 𝑟 ∈ 𝐾[𝑡] mit deg(𝑟) < 1
so dass
𝑝(𝑡) = 𝑥(𝑡)(𝑡 − 𝑎) + 𝑟(𝑡).
Da 𝑟(𝑡) ein konstantes Polynom ist und
also gilt 𝑟 = 0.
Proposition 9.8
Jedes Polynom 0 ̸= 𝑝 ∈ 𝐾[𝑡] kann auf eindeutige Weise dargestellt werden als
(︃ 𝑚 )︃
∏︁
𝑝(𝑡) = (𝑡 − 𝑥𝑖 )𝜈𝑖 𝑞(𝑡)
𝑖=1
wobei 𝑥𝑖 . . . 𝑥𝑚 die Nullstellen von 𝑝 sind und 𝑞(𝑘) ̸= 0 für alle 𝑘 ∈ 𝐾. Man nennt 𝜈𝑖 ∈ 𝑁
die Multiplizität der Nullstelle 𝑥𝑖 und schreibt auch 𝜈𝑖 = 𝜇𝑥𝑖 (𝑝).
Beweis.
Existenz folgt aus Korollar 9.7: Falls 𝐾[𝑡] ∋ 𝑝 ̸= 0 eine Nullstelle hat, dividiert 𝑝 durch
das Polynom (𝑡 − 𝑥). Widerhole dies mit dem resultierenden Polynom. Da der Grad
deg(𝑝) endlich ist, ist diese Konstruktion nach endlich vielen Schritten beendet.
124
Also ist 𝑚 𝑚
𝜈𝑖′ −𝜈𝑖 ′
∏︁ ∏︁
𝜈𝑖
(𝑡 − 𝑥𝑖 ) 𝑞(𝑡) = (𝑡 − 𝑥1 ) (𝑡 − 𝑥𝑖 )𝜈𝑖 𝑞 ′ (𝑡).
𝑖=2 𝑖=2
Dies kann nicht sein, da 𝑥1 eine Nullstellen der rechten Seite, nicht aber der linken Seite
ist. Also folgt 𝜈𝑖 = 𝜈𝑖′ ∀1 ≤ 𝑖 ≤ 𝑚, also 𝑞(𝑡) = 𝑞 ′ (𝑡).
Korollar 9.9. Ein Polynom 0 ̸= 𝑝 ∈ 𝐾[𝑡] kann höchstens deg(𝑝) viele Nullstellen besitzten.
Korollar 9.10. Falls 𝐾 unendlich ist, so ist die Abbildung
𝐾[𝑡] → Abb(𝐾, 𝐾)
𝑝 ↦→ (𝑘 ↦→ 𝑝(𝑘))
0 ̸= (𝑝 − 𝑝′ ) aber (𝑝 − 𝑝′ )(𝑘) = 0 ∀𝑘 ∈ 𝐾.
Wenn 𝐾 also unendlich ist, hätte (𝑝 − 𝑝′ ) unendlich viele Nullstellen. Dies ist ein
Widerspruch zu Korollar 9.9.
Definition 9.11
Ein Körper 𝐾 heißt algebraisch abgeschlossen, falls jedes nicht-konstante Polynom in
𝐾[𝑡] eine Nullstelle in 𝐾 besitzt.
Beispiel.
lim 𝑝(𝑘) = −∞
𝑘→−∞
lim 𝑝(𝑘) = +∞
𝑘→+∞
125
Korollar 9.12. Ist 𝐾 algebraisch abgeschlossen, so zerfällt jedes Polynom 𝑝 ∈ 𝐾[𝑡] in
Linearfaktoren
𝑚
∏︁
𝑝(𝑡) = 𝑎 (𝑡 − 𝑥𝑖 )𝜈𝑖 𝑎, 𝑥𝑖 , . . . , 𝑥𝑚 ∈ 𝐾.
𝑖=1
Satz 9.13
C ist algebraisch abgeschlossen.
Definition 9.14
Sei 𝑉 ein Vektorraum über 𝐾 und 𝑓 ∈ End(𝑉 ).
𝑉𝜆 (𝑓 ) ̸= {0}.
dim(𝑉𝜆 (𝑓 )) ≥ 1
4 Sei 𝜆 ∈ 𝐾 ein Eigenwert von 𝑓 . Dann nennen wir die von 0 verschiedenen Elemente
in 𝑉𝜆 (𝑓 ) die Eigenvektoren von 𝑓 zum Eigenwert 𝜆.
126
Den zu 𝜆 ∈ 𝐾 gehörigen Eigenraum einer Matrix 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) definiert man als
den zu 𝜆 gehörigen Eigenraum des Endomorphismus
Definition 9.15
Sei 𝑉 endlich-dimensional und 𝑓 ∈ End(𝑉 ). Kennt man den Eigenwert 𝜆 von 𝑓 , so lässt
sich der Eigenraum leicht berechnen:
𝑉𝜆 (𝑓 ) = ker(𝑓 − 𝜆𝑖𝑑𝑉 ).
𝐴 = Mat𝒜𝒜 (𝑓 ).
Dann ist
𝑉𝜆 (𝑓 ) = Lös(𝐴 − 𝜆1𝑛 , 0)
der Lösungsraum des homogenen Gleichungssystem
(𝐴 − 𝜆1𝑛 ) · 𝑥 = 0.
𝑖𝐴 : Mat(𝑛, 1; 𝐾) → 𝑉
Proposition 9.16
Sei 𝑉 ein 𝑛-dimensionaler 𝐾-Vektorraum, 𝑓 ∈ End(𝑉 ) und 𝐴 = Mat𝒜𝒜 (𝑓 ) bezüglich
einer geordneten Basis 𝒜. Dann sind folgende Aussagen äquivalent:
2 det(𝜆𝑖𝑑𝑉 − 𝑓 ) = 0
3 det(𝜆1𝑛 − 𝐴) = 0.
Beweis.
127
1 ⇒ 2 Sei 𝜆 ein Eigenwert von 𝑓 , dann gilt
{0} =
̸ 𝑉𝜆 (𝑓 ) = ker(𝜆𝑖𝑑𝑉 − 𝑓 ).
𝑉𝜆 (𝑓 ) = ker(𝜆𝑖𝑑𝑉 − 𝑓 ) ̸= {0}.
1 Sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾). Das charakteristische Polynom von 𝐴 ist das Polynom
Bemerkung. (𝑡1𝑛 − 𝐴) ∈ Mat(𝑛, 𝑛; 𝐾[𝑡]) ist eine Matrix mit Einträgen in dem Ring 𝐾[𝑡].
Die Determinante ist über die Leibnizformel definiert.
Lemma 9.18. Das charakteristische Polynom 𝑋𝐴 (𝑡) ist ein Polynom in 𝐾[𝑡]
ist eine wichtige Invariante der Matrix 𝐴 und wird die Spur von A genannt. Der Koeffizient
𝑝0 = (−1)𝑛 det(𝐴).
128
Beweis.
Aus der Leibnizformel folgt, dass 𝑝𝑖 ∈ 𝐾 ∀𝑖, also ist 𝑋𝐴 (𝑡) ∈ 𝐾[𝑡]
⎛ ⎞
𝑡 − 𝑎11 −𝑎12 . . . −𝑎1𝑛
⎜ −𝑎21 𝑡 − 𝑎22 . . . −𝑎2𝑛 ⎟
(𝑡1𝑛 − 𝐴) = ⎜ .. .. . .. ⎟
⎜ ⎟
⎝ . . . . . ⎠
−𝑎𝑛1 ... . . . 𝑡 − 𝑎𝑛𝑛
Die Beiträge zu 𝑝𝑛 und 𝑝𝑛−1 können nur von Summanden kommen, die zu
𝜎 = 𝑖𝑑𝑆 = 𝑒 ∈ 𝑆𝑛
gehören, also
(𝑡 − 𝑎11 ) . . . (𝑡 − 𝑎𝑛𝑛 ).
Also folgt
𝑝𝑛 = 1
𝑝𝑛−1 = −(𝑎11 + · · · + 𝑎𝑛𝑛 )
𝑝0 = 𝑋𝐴 (0) = (−1)𝑛 det(𝐴).
Lemma 9.19. Sei 𝑓 ∈ End(𝑉 ). Das charakteristische Polynom 𝑋𝑓 (𝑡) hängt nicht von der
Wahl der Basis ab.
Beweis.
Seien 𝒜, ℬ geordnete Basen von 𝑉 .
𝑖𝑑𝑉 𝑓 𝑖𝑑𝑉
𝑉 𝑉 𝑉 𝑉
𝒜 ℬ ℬ 𝒜
Beispiel.
129
1 Ist 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) eine Diagonalmatrix, so ist (𝑡 · 1𝑛 − 𝐴) auch eine Diagonal-
matrix. 𝑛
∏︁
𝑋𝐴 (𝑡) = (𝑡 − 𝑎11 ) · · · · · (𝑡 − 𝑎𝑛𝑛 ) = (𝑡 − 𝑎𝑖𝑖 )
𝑖=1
2 Ist 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) eine obere Dreicksmatrix, dann ist (𝑡 · 1𝑛 − 𝐴) auch eine obere
Dreiecksmatrix. 𝑛
∏︁
𝑋𝐴 (𝑡) = (𝑡 − 𝑎𝑖𝑖 )
𝑖=1
𝑋𝐴 (𝑡) = (𝑡 − 𝜆)𝑛
Es gibt nur einen Eigenwert 𝜆 ∈ 𝐾. Für die Dimension hat des Eigenraums 𝑉𝜆 (𝐴)
gilt:
dim(𝑉𝜆 (𝐴)) = 1,
wobei die Dimension des Eigenraums über die Lösung des Gleichungssystems
(𝜆 · 1𝑛 − 𝐴) · 𝑥 = 0 berechnet werden kann.
𝐴 = (−1)𝑚 · 12 .
130
Über C:
𝑋𝐴 (𝑡) = (𝑡 − 𝑒𝑖𝜑 )(𝑡 − 𝑒−𝑖𝜑 )
Also gibt es Eigenwerte für alle 𝜑 ∈ R, und zwar
𝑒±𝑖𝜑 .
5 ⎛ ⎞
7 1 −5
𝐴 = ⎝−1 1 1 ⎠
4 1 −2
⎛ ⎞
𝑡 − 7 −1 +5
𝑍 12 (7−𝑡)
𝑋𝐴 (𝑡) = det ⎝ 1 𝑡 − 1 −1 ⎠
𝑋 32 (4)
−4 −1 𝑡 + 2
⎛ ⎞
0 −1 − (𝑡 − 1)(𝑡 − 7) 5 + (𝑡 − 7)
𝑍 12 (7−𝑡)
= det ⎝ 1 𝑡−1 −1 ⎠
𝑋 32 (4)
0 −1 + 4(𝑡 − 1) 𝑡−2
(︂ )︂
𝑍 12 (7−𝑡) −1 − (𝑡 − 1)(𝑡 − 7) 5 + (𝑡 − 7)
= − det
𝑋 32 (4) −1 + 4(𝑡 − 1) 𝑡−2
𝑍 12 (7−𝑡)
= − (1 + (𝑡 − 1)(𝑡 − 7))(𝑡 − 2) − (4𝑡 − 5)(𝑡 − 2)
𝑋 32 (4)
𝑍 12 (7−𝑡)
= − (𝑡 − 2)(1 + (𝑡 − 1)(𝑡 − 7) + (4𝑡 − 5))
𝑋 32 (4)
𝑍 12 (7−𝑡)
= (𝑡 − 2)(𝑡 − 1)(𝑡 − 3)
𝑋 32 (4)
131
Bestimmung der Eigenräume am Beispiel von 𝜆1 = 1:
𝑍 21 (6)
𝑉1 (𝐴) 31
= ker(13 − 𝐴)
𝑋 (4)
⎛ ⎞
−6 −1 5
𝑍 21 (6)
= ker ⎝ 1 0 −1⎠
𝑋 31 (4)
−4 −1 3
⎛ ⎞
1 0 −1
𝑍 12
= ker ⎝−6 −1 5 ⎠
𝑋 31 (4)
−4 −1 3
⎛ ⎞
1 0 −1
𝑍 21 (6)
= ker ⎝0 −1 −1⎠
𝑋 31 (4)
0 −1 −1
⎛ ⎞
1 0 −1
𝑍 32 (−1)
= ker ⎝0 −1 −1⎠
𝑋 31 (4)
0 0 0
⎛ ⎞
1
𝑍 21 (6)
= R −1⎠
⎝
𝑋 31 (4)
1
⎛ ⎞
1
und 𝑣1 = ⎝−1⎠ ist ein Eigenvektor zum Eigenwert 1.
1
Übung: Berechnen sie die Eigenräume zu den Eigenwerten 𝜆2 = 2, 𝜆3 = 3.
9.4 Diagonalisierbarkeit
Definition 9.20
Sei 𝑉 ein 𝐾-Vektorraum. Ein Endomorphismus 𝑓 : 𝑉 → 𝑉 heißt diagonalisierbar, wenn
es eine Basis 𝒜 von 𝑉 bestehend aus Eigenvektoren von 𝑓 gibt.
Eine Matrix 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) heißt diagonalisierbar, wenn der Endomorphismus
𝐴∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
diagonalisierbar ist.
Lemma 9.21. Sei 𝑓 : 𝑉 → 𝑉 diagonalisierbar und 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) eine Basis bestehend
aus Eigenvektoren 𝑣𝑖 zum Eigenwert 𝜆𝑖 . Dann gilt
0
⎛ ⎞
𝜆1
..
Mat𝒜𝒜 (𝑓 ) = ⎝ .
⎜ ⎟
⎠
0 𝜆𝑛
132
Beweis.
Klar aus der Definition.
Korollar 9.22. 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) ist genau dann diagonalisierbar, wenn ein 𝑇 ∈ GL𝑛 (𝐾)
existiert, so dass
𝑇 · 𝐴 · 𝑇 −1
eine Diagonalmatrix ist.
Bemerkung. 𝑇 ist die Basiswechselmatrix, die die Standardbasis 𝒜′ von Mat(𝑛, 1; 𝐾) auf
die Basis 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) von Eigenvektoren von (𝐴∙) ∈ End(Mat(𝑛, 1; 𝐾)) überführt.
Beweis.
𝑇 ∙ : Mat(𝑛, 1; 𝐾) → Mat(𝑛, 1; 𝐾)
𝑒𝑖 ↦→ 𝑣𝑖
Proposition 9.23
Sei 𝑓 ∈ End(𝑉 ) und seien 𝑣1 , . . . , 𝑣𝑘 Eigenvektoren zu paarweise verschiedenen Eigenwer-
ten 𝜆1 , . . . , 𝜆𝑘 ∈ 𝐾. Dann ist {𝑣1 , . . . , 𝑣𝑛 } linear unabhängig.
Beweis.
Beweis durch vollständige Induktion über 𝑘.
133
IS: Seien 𝑣1 , . . . , 𝑣𝑘 Eigenvektoren von 𝑓 zu paarweise verschiedenen Eigenwerten
𝜆1 , . . . , 𝜆𝑘 ∈ 𝐾. Sei die Aussage wahr für (𝑘 − 1) Eigenvektoren, d.h. wir können
annehmen, dass {𝑣1 , . . . , 𝑣𝑘−1 } linear unabhängig ist.
Seien 𝑙1 , . . . , 𝑙𝑘 ∈ 𝐾 und
𝑙1 𝑣1 + · · · + 𝑙𝑘 𝑣𝑘 = 0.
Dann gilt
0 = 𝑓 (𝑙1 𝑣1 + · · · + 𝑙𝑘 𝑣𝑘 )
= 𝑓 (𝑙1 𝑣1 ) + · · · + 𝑓 (𝑙𝑘 𝑣𝑘 )
= 𝑙1 𝜆1 𝑣1 + · · · + 𝑙𝑘 𝜆𝑘 𝑣𝑘 .
Also ist
𝑘−1
∑︁
𝑙𝑘 𝜆𝑘 𝑣𝑘 = − 𝑙𝑖 𝜆𝑖 𝑣𝑖 .
𝑖=1
Also folgt (𝜆1 − 𝜆𝑘 )𝑙1 𝑣1 + · · · + (𝜆𝑘−1 − 𝜆𝑘 )𝑙𝑘−1 𝑣𝑘−1 = 0 und nach Induktionsvor-
aussetzung gilt
(𝜆𝑖 − 𝜆𝑘 )𝑙𝑖 = 0 ∀1 ≤ 𝑖 ≤ 𝑘 − 1.
Da 𝜆1 , . . . , 𝜆𝑘 paarweise verschieden sind, gilt (𝜆𝑖 − 𝜆𝑘 ) ̸= 0, also 𝑙𝑖 = 0 für alle
1 ≤ 𝑖 ≤ 𝑘 − 1. Dann ist wegen auch 𝑙𝑘 = 0. Also ist {𝑣1 , . . . , 𝑣𝑘 } linear unabhänig.
Korollar 9.24. Sei 𝑉 ein 𝐾-Vektorraum mit dim(𝑉 ) = 𝑛. Hat 𝑓 ∈ End(𝑉 ) 𝑛 paarweise
verschiedene Eigenwerte, so ist 𝑓 diagonalisierbar.
Satz 9.25
Sei 𝑓 ∈ End(𝑉 ), dim(𝑉 ) = 𝑛. Dann sind die folgenden Aussagen äquivalent:
1 𝑓 ist diagonalisierbar
2 𝑋𝑓 (𝑡) zerfällt in Linearfaktoren und für die Multiplizität der Nullstellen 𝑥𝑖 ∈ 𝐾 gilt
𝜇𝑥𝑖 (𝑋𝑓 ) = dim(𝑉𝑥𝑖 (𝑓 )).
Beweis.
1 ⇒ 2 Sei 𝑓 diagonalisierbar, also {𝑣1 , . . . , 𝑣𝑘 } eine Basis von Eigenvektoren. Seien 𝑥𝑖 ∈ 𝐾
die Eigenwerte zu diesen Eigenvektoren. Dann ist 𝑥𝑖 ∈ 𝐾 eine Nullstelle von 𝑋𝑓 (𝑡)
von Multiplizität 𝜇𝑥𝑖 (𝑋𝑓 ) = dim(𝑉𝑥𝑖 (𝑓 )), also
𝑘
∏︁
𝑋𝑓 (𝑡) = (𝑡 − 𝑥𝑖 )dim(𝑉𝑥𝑖 (𝑓 )) ,
𝑖=1
Also gilt 2 .
134
2 ⇒ 1 Es gelte 2 . Seien 𝑥1 , . . . , 𝑥𝑘 die Nullstellen von 𝑋𝑓 (𝑡) und 𝑑𝑖 = dim(𝑉𝑥𝑖 (𝑓 )) die
(𝑖) (𝑖)
Multiplizität der Nullstelle 𝑥𝑖 . Wähle die Basis 𝐵𝑖 = {𝑣1 , . . . , 𝑣𝑑𝑖 } von 𝑉𝑥𝑖 (𝑓 ) für
alle 1 ≤ 𝑖 ≤ 𝑘.
Behauptung:
(𝑖)
𝐵 = 𝐵1 ∪ · · · ∪ 𝐵𝑘 = { 𝑣𝑗 | 1 ≤ 𝑖 ≤ 𝑘, 1 ≤ 𝑗 ≤ 𝑑𝑖 }
ist eine Basis von 𝑉 .
Wenn wir diese Behauptung bewiesen haben, so folgt 1 , da 𝐵 aus Eigenvektoren
besteht.
Zeige Behauptung:
1 𝐵𝑖 sind disjunkt, da
𝑉𝑥𝑖 (𝑓 ) ∩ 𝑉𝑥𝑗 (𝑓 ) = {0} für 𝑥𝑖 ̸= 𝑥𝑗 ,
also folgt
|𝐵| = |𝐵1 | + · · · + |𝐵𝑘 |
= 𝑑1 , . . . , 𝑑 𝑘
= 𝜇𝑥𝑖 (𝑋𝑓 ) + · · · + 𝜇𝑥𝑘 (𝑋𝑓 )
= 𝑛 = dim(𝑉 )
wobei im letzten Schritt verwendet wurde, dass 𝑋𝑓 (𝑡) in Linearfaktoren zerfällt.
2 Zu zeigen: 𝐵 ist linear unabhängig:
(𝑖)
Seien 𝑙𝑗 ∈ 𝐾 mit
𝑑𝑖
𝑘 ∑︁
∑︁ (𝑖) (𝑖)
0= 𝑙𝑗 𝑣𝑗 .
𝑖=1 𝑗=1
Dann gilt
𝑘
∑︁ (𝑖) (𝑖)
𝑤𝑖 = 𝑙𝑗 𝑣𝑗 ∈ 𝑉𝑥𝑖 (𝑓 ) mit 1 ≤ 𝑖 ≤ 𝑘.
𝑗=1
135
Satz 9.26
Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum. Dann ist 𝑓 ∈ End(𝑉 ) diagonalisierbar
genau dann, wenn
⨁︁𝑘
𝑉 = 𝑉𝜆𝑖 (𝑓 )
𝑖=1
die direkte Summe der Eigenräume von 𝑓 ist, wobei 𝜆1 , . . . , 𝜆𝑘 die Eigenwerte von 𝑓 sind.
Beweis.
Da 𝐵 = 𝐵1 ∪˙ . . . ∪˙ 𝐵𝑘 ist gilt
𝑉 = ℒ(𝐵) = ℒ(𝐵1 ) ⊕ · · · ⊕ ℒ(𝐵𝑘 )
= 𝑉𝑥𝑖 (𝑓 ) ⊕ · · · ⊕ 𝑉𝑥𝑘 (𝑓 ).
Beispiel. ⎛ ⎞
7 1 −5
𝐴 = ⎝−1 1 1 ⎠ ∈ Mat(3, 3; R).
4 1 −2
𝑋𝐴 (𝑡) = (𝑡 − 1)(𝑡 − 2)(𝑡 − 3),
zerfällt also in Linearfaktoren mit den Eigenwerten 1, 2, 3.
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 9
𝑉1 (𝐴) = R −1 = 𝑣1
⎝ ⎠ 𝑉2 (𝐴) = R 0 = 𝑣2
⎝ ⎠ 𝑉3 (𝐴) = R −1⎠ = 𝑣3 .
⎝
1 1 7
Da 1, 2, 3 paarweise verschiedene Eigenwerte sind, ist {𝑣1 , 𝑣2 , 𝑣3 } linear unabhängig, also
eine Basis von Mat(3, 1; 𝐾).
Mat(3, 1; 𝐾) = 𝑉1 (𝐴) ⊕ 𝑉2 (𝐴) ⊕ 𝑉3 (𝐴).
⎛ ⎞
1 1 9
𝑇 = (𝑣1 𝑣2 𝑣3 ) = ⎝−1 0 −1⎠
1 1 7
ist invertierbar.
𝑇 ∙ Mat(3, 1; R) → Mat(3, 1; R)
𝑒1 ↦→ 𝑣1
𝑒2 ↦→ 𝑣2
𝑒3 ↦→ 𝑣3
⎛ ⎞
1 0
𝑇 −1 𝐴𝑇 = ⎝ 2 ⎠
0 3
Ausblick: In der Linearen Algebra 2 erfahren wir noch mehr über das charakteristische
Polynom und welche Informationen sie über Endomorphismen enthalten!
136
10 Euklidische Vektorräume
10.1 Bilinearformen
Definition 10.1
Sei 𝑉 ein 𝐾-Vektorraum. Eine Bilinearform auf 𝑉 ist eine 2-Multilinearform.
𝛽 :𝑉 ×𝑉 →𝐾
das heißt,
𝛽(𝑣, ∙) :𝑉 → 𝐾 linear
𝛽(∙, 𝑣) :𝑉 → 𝐾 linear
Beispiel 10.2.
Proposition 10.3
Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum, 𝒜 = (𝑣1 , . . . , 𝑣𝑛 ) eine Basis von 𝑉 und
𝛽 : 𝑉 × 𝑉 → 𝐾 eine Bilinearform.
Die Matrix 𝐵 = (𝑏𝑖𝑗 )𝑛𝑖 = 1 𝑗 = 1 ∈ Mat(𝑛, 𝑛; 𝐾), die durch 𝑏𝑖𝑗 = 𝛽(𝑣𝑖 , 𝑣𝑗 ) eindeutig
𝑛
bestimmt ist, heißt Strukturmatrix oder Matrix-Darstellung von 𝛽 bezüglich 𝒜, 𝐵 =
Mat𝒜 (𝛽). Die Strukturmatrix hat folgende Eigenschaften:
1 Die Abbildung
Mat𝒜 : 𝛽 ↦→ Mat𝒜 (𝛽)
ist ein Isomorphismus von Vektorräumen.
137
3 Sei 𝒜′ eine andere Basis von 𝑉 . Dann gilt
1 Aus der Bilinearität von 𝛽 folgt, dass 𝐵 = Mat𝒜 (𝛽) die Bilinearform 𝛽 eindeutig
bestimmt.
Insbesondere wird durch jedes 𝐵 auf diese Weise eine Bilinearform 𝛽𝐵 auf 𝑉
definiert
𝛽𝐵 (𝑣𝑖 , 𝑣𝑗 ) := 𝑏𝑖𝑗 .
Also ist Mat𝐴 : 𝛽 ↦→ Mat𝒜 (𝛽) bijektiv und da die Abbildung linear ist, ein
Vektorraumisomorphismus.
2 Wegen der Bilinearität reicht es 2 für die Vektoren der Standardbasis von
Mat(𝑛, 1; 𝐾) nachzuprüfen.
3 Zur Erinnerung:
𝑇 = Mat𝒜′ 𝒜 (𝑖𝑑𝑉 ).
Beispiel 10.4.
138
2 Die Matrixdarstellung von < ∙, ∙ >𝐵 bezüglich der Standardbasis ist
< 𝑥, 𝐵𝑦 >= 𝑥𝑇 · 𝐵 · 𝑦.
Also ist 𝐵 die Matrixdarstellung von < ∙, ∙ >𝐵 bezüglich der Standardbasis auf
Mat(𝑛, 1; 𝐾).
Definition 10.5
Eine Bilinearform 𝛽 auf 𝑉 heißt
1. symmetrisch, falls 𝛽(𝑣, 𝑤) = 𝛽(𝑤, 𝑣)∀𝑣, 𝑤 ∈ 𝑉 gilt
Lemma 10.6. Sei dim(𝑉 ) = 𝑛. Eine Bilinearform 𝛽 auf 𝑉 ist (schief-)symmetrisch genau
dann, wenn für eine (oder für alle) Basis 𝐴 gilt
𝐵 = Mat𝒜 (𝛽)
Bemerkung. Gilt dies für eine Basis 𝐴, dann auch für alle Basen von 𝑉 .
𝐵 = 𝐵𝑇
(𝐵 ′ )𝑇 = (𝑇 𝑇 𝐵𝑇 )𝑇 = 𝑇 𝑇 𝐵 𝑇 𝑇 = 𝑇 𝑇 𝐵𝑇 = 𝐵 ′ .
Beispiel.
2 Die Bilinearform
ist schiefsymmetrisch. (︂ )︂
0 1
Mat𝒜 (det) =
−1 0
139
Definition 10.7
Eine (schief-)symmetrische Bilinearform 𝛽 auf 𝑉 heißt nicht ausgeartet, falls es für alle
0 ̸= 𝑣 ∈ 𝑉 ein 𝑤 ∈ 𝑉 gibt, so dass
𝛽(𝑤, 𝑣) ̸= 0.
Für eine allgemeine Bilinearform fordert man, dass es für jedes 0 ̸= 𝑣 ∈ 𝑉 ein 𝑤 ∈ 𝑉
gibt, so dass
𝛽(𝑣, 𝑤) ̸= 0
und ein 𝑤′ ∈ 𝑉 , so dass
𝛽(𝑤′ , 𝑣) ̸= 0.
Beispiel.
𝛽 =< ∙, ∙ >𝐵
𝛽(𝑣, 𝑤) = 𝛽(𝑤, 𝑣) = < 𝑤, 𝑣 >𝐵 = < 𝑤, 𝐵·𝑣 > = < 𝑤, 0 > = 0 ∀𝑤 ∈ Mat(𝑛, 1; 𝐾).
𝑙𝛽 :𝑉 → 𝑉 *
𝑣 ↦→ 𝛽(∙, 𝑣)
injektiv ist. Sei 𝑉 endlich dimensional mit Basis 𝐴 und 𝐴* die duale Basis von 𝑉 * . Dann
gilt
Mat𝒜𝒜 (𝑖𝐴 ∘ 𝑖𝐴* −1 ∘ 𝑙𝛽 ) = Mat𝒜𝒜* (𝑙𝛽 ) = Mat𝒜 (𝛽).
Bemerkung. Für eine allgemeine Bilinearform müssen wir die Injektivität von
𝑙𝛽 : 𝑣 → 𝑉 *
𝑣 ↦→ 𝛽(∙, 𝑣)
140
und von
𝑟𝛽 : 𝑣 → 𝑉 *
𝑣 ↦→ 𝛽(𝑣, ∙)
fordern.
Proposition 10.9
Sei 𝛽 eine (schief-)symmetrische Bilinearform auf 𝑉 mit dim(𝑉 ) = 𝑛. Dann ist 𝛽
nicht ausgeartet genau dann, wenn bezüglich einer Basis 𝐴 (und dann aller Basen) für
𝐵 = Mat𝒜 (𝛽) gilt, dass
det(𝐵) ̸= 0.
Beweis.
Nach Lemma 10.8 gilt, dass 𝛽 nicht ausgeartet ist, falls
𝑙𝛽 : 𝑉 → 𝑉 *
injektiv ist und da dim(𝑉 ) = dim(𝑉 * ) gilt, ist 𝑙𝛽 auch bijektiv, genau dann, wenn
𝑖𝐴 ∘ 𝑖𝐴 −1 ∘ 𝑙𝛽 : 𝑉 → 𝑉
Definition 10.10
Sei 𝛽 eine symmetrische Bilinearform auf 𝑉 . Seien 𝑓, 𝑔 ∈ End(𝑉 ). Man nennt 𝑓 adjungiert
zu 𝑔, falls
𝛽(𝑣, 𝑔(𝑤)) = 𝛽(𝑓 (𝑣), 𝑤) ∀𝑣, 𝑤 ∈ 𝑉.
Dann ist auch 𝑔 adjungiert zu 𝑓 . 𝑓 heißt selbst adjungiert, wenn es zu 𝑓 adjungiert ist.
Proposition 10.11
Sei 𝛽 eine symmetrische Bilinearform auf 𝑉 , 𝐴 eine Basis von 𝑉 , dim(𝑉 ) = 𝑛. Seien
𝑓, 𝑔 ∈ End(𝑉 ) adjungiert zueinander. Dann gilt für 𝐵 = Mat𝒜 (𝛽)
𝐵 · 𝐺 = 𝐹 𝑇 · 𝐵.
Beweis.
Der Beweis erfolgt durch Einsetzten in die Definition.
141
Satz 10.12
Sei 𝑉 ein endlich-dimensionaler 𝐾-Vektorraum und 𝛽 eine nicht ausgeartete Bilinearform
auf 𝑉 . Dann gibt es zu 𝑔 ∈ End(𝑉 ) genau einen bezüglich 𝛽 adjungierten Endomorphismus
𝑓 ∈ End(𝑉 ), 𝑓 = 𝑔 ad .
Es gilt
Mat𝒜𝒜 (𝑔 ad ) = (𝐵 · Mat𝒜𝒜 (𝑔) · 𝐵 −1 )𝑇
wobei 𝐵 = Mat𝒜 (𝛽) ist.
Beweis.
Beispiel. Das Standardskalarprodukt < , > auf Mat(𝑛, 1; 𝐾) ist nicht ausgeartet, da
𝑔 ad = (𝐴∙)ad = (𝐴𝑇 ∙)
Definition 10.13
Sei 𝛽 eine symmetrische Bilinearform auf 𝑉 .
𝑈 ⊥ := { 𝑣 ∈ 𝑉 | 𝛽(𝑣, 𝑢) = 0 ∀𝑢 ∈ 𝑈 }
142
3 Eine Basis {𝑣1 , . . . , 𝑣𝑛 } heißt Orthogonalbasis von 𝑉 bezüglich 𝛽, falls
𝛽(𝑣𝑖 , 𝑣𝑗 ) = 0 ∀𝑖 ̸= 𝑗
𝛽(𝑣𝑖 , 𝑣𝑖 ) = 1 ∀1 ≤ 𝑖 ≤ 𝑛
erfüllt ist.
Bemerkung.
1 Das orthogonale Komplement ist nicht immer ein Komplement zu 𝑈 , das heißt es
kann vorkommen, dass
𝑈 ∩ 𝑈 ⊥ ̸= {0}.
Beispiel.
𝛽 :𝑉 ×𝑉 →𝐾
(𝑣, 𝑤) ↦→ 𝛽(𝑣, 𝑤) = 0
𝑈 ⊥ = { 𝑣 ∈ 𝑉 | 𝛽(𝑣, 𝑢) = 0 ∀𝑢 ∈ 𝑈 }
definieren.
Beispiel.
Sei 𝑈 = 𝐾 · 𝑢 mit 0 ̸= 𝑢 ∈ 𝑉.
Dann gilt
𝑈⊥ ⊃ 𝑈 denn 𝛽(𝑢, 𝑢) = −𝛽(𝑢, 𝑢) = 0
Satz 10.14
Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum, 𝛽 eine nicht ausgeartete Bilinearform
und 𝑈 ⊂ 𝑉 ein Untervektorraum.
Dann gilt:
2 (𝑈 ⊥ )⊥ = 𝑈
Beweis.
143
1 Betrachte
𝑓 : 𝑉 → 𝑈*
⃒
𝑣 ↦→ 𝑙𝛽 (𝑣)⃒𝑈
Dieses 𝑓 ist eine lineare Abbildung. Da 𝛽 nicht ausgeartet ist, ist 𝑙𝛽 injektiv, also
auch surjektiv. Also gilt
im(𝑓 ) = 𝑈 *
⃒
ker(𝑓 ) = { 𝑣 ∈ 𝑉 | 𝑙𝛽 (𝑣)⃒𝑈 = 0 }
= { 𝑣 ∈ 𝑉 | 𝛽(𝑣, 𝑢) = 0 ∀𝑢 ∈ 𝑈 } = 𝑈 ⊥ .
Also folgt
𝑈 ⊂ (𝑈 ⊥ )⊥ .
𝑈 ∩ 𝑈 ⊥ = {0}.
Also ist
𝑈 ⊕ 𝑈 ⊥ = 𝑈 + 𝑈 ⊥ ⊂ 𝑉,
aber es gilt
dim(𝑈 + 𝑈 ⊥ ) = dim(𝑈 ) + dim(𝑈 ⊥ ) = dim(𝑉 ),
also folgt
𝑈 ⊕ 𝑈 ⊥ = 𝑉.
Beispiel.
144
2 (𝑈 ⊥ )⊥ = 𝐾 · 𝑒1 = 𝑈 .
Lemma 10.15. Sei 𝑉 ein endlich dimensionaler 𝐾-Vektorraum und 𝑋 ⊂ 𝑉 * ein Unter-
vektorraum. Für
𝑋 0 = { 𝑣 ∈ 𝑉 | 𝜑(𝑢) = 0 ∀𝜑 ∈ 𝑋 } ⊂ 𝑉
gilt
dim(𝑋 0 ) = dim(𝑉 ) − dim(𝑋).
Beweis.
Wähle eine Basis 𝜑1 , . . . 𝜑𝑘 von 𝑋 und definiere die lineare Abbildung
𝑓 : 𝑉 → Mat(𝑘, 1; 𝐾)
⎛ ⎞
𝜑1 (𝑣)
𝑣 ↦→ ⎝ ... ⎠
⎜ ⎟
𝜑𝑘 (𝑣)
Diese Abbildung ist surjektiv, denn wir können die Basis 𝜑1 , . . . , 𝜑𝑘 ergänzen zu einer
Basis (𝐴) = (𝜑1 , . . . , 𝜑𝑛 ) von 𝑉 * .
Wähle nun (𝑣1 , . . . , 𝑣𝑛 ) die zu 𝒜 duale Basis von 𝑉 . Dann gilt für
{︃
𝑒𝑖 1 ≤ 𝑖 ≤ 𝑘
𝑓 (𝑣𝑖 ) = ,
0 𝑖>𝑘
dim(im(𝑓 )) = 𝑘 = dim(𝑋)
und
ker(𝑓 ) = { 𝑣 ∈ 𝑉 | 𝜑𝑖 (𝑣) = 0 ∀1 ≤ 𝑖 ≤ 𝑘 }
= { 𝑣 ∈ 𝑉 | 𝜑(𝑣) = 0 ∀𝜑 ∈ 𝑋 }
= 𝑋0
Also folgt
145
Proposition 10.16
Sei 𝑉 ein endlich-dimensionaler 𝐾-Vektorraum, 𝛽 eine Bilinearform und 𝑈 ⊂ 𝑉 ein
Untervektorraum. Dann gilt
Beweis.
Betrachte
𝑙𝛽 ⃒𝑈 : 𝑈 → 𝑉 *
⃒
𝑢 ↦→ 𝛽(𝑢, ∙).
𝑋 0 = { 𝑣 ∈ 𝑉 | 𝜑(𝑣) = 0 ∀𝜑 ∈ 𝑋 }
= { 𝑣 ∈ 𝑉 | (𝑙𝛽 (𝑢))(𝑣) = 𝛽(𝑢, 𝑣) = 0 ∀𝑢 ∈ 𝑈 }
= 𝑈 ⊥.
⃒ ⃒
dim(im(𝑙𝛽 ⃒𝑈 )) = dim(𝑈 ) − dim(ker(𝑙𝛽 ⃒𝑈 ))
⃒
ker(𝑙𝛽 ⃒𝑈 ) = { 𝑢 ∈ 𝑈 | 𝑙𝛽 (𝑢) = 0 }
= { 𝑢 ∈ 𝑈 | 𝛽(𝑢, 𝑣) = 0 ∀𝑣 ∈ 𝑉 }
=𝑉⊥∩𝑈
Definition 10.17
Eine symmetrische Bilinearform 𝛽 : 𝑉 × 𝑉 → R heißt positiv definit, falls 𝛽(𝑣, 𝑣) > 0
für alle 𝑣 ∈ 𝑉 ∖ {0}. Eine positiv definite symmetrische Bilinearform nennt man auch ein
Skalarprodukt. Wir schreiben 𝛽 > 0. Eine symmetrische Matrix 𝐵 ∈ Mat(𝑛, 𝑛; R) heißt
positiv definit (𝐵 > 0), wenn 𝑥𝑇 · 𝐵 · 𝑥 > 0 für alle 𝑥 ∈ Mat(𝑛, 1; R) ∖ {0}.
146
Beispiel 10.18.
2 Vektorraum 𝐶 0 ([0, 1], R) der stetigen Abbildungen vom Intervall [0, 1] nach R. Die
Bilinearform ∫︁ 1
𝛽(𝑓, 𝑔) := 𝑓 (𝑥) · 𝑔(𝑥)𝑑𝑥
0
ist positiv definit.
mit Gleichheit genau dann, wenn {𝑢, 𝑣} linear abhängig ist, das heißt ∃𝑟 ∈ R mit 𝑢 = 𝑟 · 𝑣
oder 𝑣 = 𝑟 · 𝑢.
Beweis.
Da 𝛽 positiv definit ist gilt für alle 𝑢, 𝑣 ∈ 𝑉 und alle 𝑘 ∈ R
147
Korollar 10.20. Für alle 𝑢, 𝑣 ∈ 𝑉 ∖ {0} gilt
𝛽(𝑢, 𝑣)
−1 ≤ √︀ ≤ 1.
𝛽(𝑢, 𝑢)𝛽(𝑣, 𝑣)
da 𝛽(𝑢, 𝑣) = cos(𝜙) ·
√︀
𝛽(𝑢, 𝑢)𝛽(𝑣, 𝑣).
Definition 10.21
Eine Norm auf 𝑉 ist eine Abbildung
𝑁 : 𝑉 → R≥0
Beispiel.
2 𝑙1 -Norm auf R𝑛
‖(𝑣1 , . . . , 𝑣𝑛 )‖1 = |𝑣1 | + · · · + |𝑣𝑛 |
3 𝑙∞ -Norm auf R𝑛
‖(𝑣1 , . . . , 𝑣𝑛 )‖∞ = max(|𝑣1 |, . . . , |𝑣𝑛 |)
Die Norm ist bestimmt durch die Menge der Vektoren von Norm
148
Proposition 10.22
Sei 𝑉 ein R-Vektorraum mit Skalarprodukt 𝛽. Dann ist
‖∙‖ : 𝑉 → R≥0
√︀
𝑣 ↦→ ‖𝑣‖ := 𝛽(𝑣, 𝑣)
‖𝑢 + 𝑣‖2 = 𝛽(𝑢 + 𝑣, 𝑢 + 𝑣)
= 𝛽(𝑢, 𝑢) + 𝛽(𝑣, 𝑣) + 2𝛽(𝑢, 𝑣)
= ‖𝑢‖2 + ‖𝑣‖2 + 2𝛽(𝑢, 𝑣)
≤ ‖𝑢‖2 + ‖𝑣‖2 + 2 𝛽(𝑢, 𝑢)𝛽(𝑣, 𝑣)
√︀
Definition 10.23
Eine Metrik auf einer Menge 𝑋 ist die Abbildung
𝑑 : 𝑋 × 𝑋 → R≥0 ,
2 𝑑(𝑥, 𝑦) = 𝑑(𝑦, 𝑥)
𝑑(𝑢, 𝑣) := ‖𝑢 − 𝑣‖
Die Norm ‖𝑥‖ entspricht der Länge des Vektors 𝑥, also der Abstand von 𝑥 zum Nullpunkt
0 ∈ R𝑛 .
Für R2 :
√︀
‖𝑥‖ = 𝑥21 + 𝑥22
149
𝑥
Der von 𝑥, 𝑦 ∈ R𝑛 eingeschlossene Winkel 0 ≤ 𝜙 ≤ 𝜋 ist der kleinere der beiden Winkel
zwischen den Strahlen R𝑥 und R𝑦, die durch 0 verlaufen.
𝜑
𝑦
0
Definition 10.25
Ein Euklidischer Vektorraum ist ein Paar (𝑉, 𝛽) bestehend aus einem endlich
dimensionalen R-Vektorraum 𝑉 und einem Skalarprodukt 𝛽.
150
Beweis.
1 folgt aus 2 , 3 folgt aus 2 und
𝑢𝑖 𝑢𝑖 𝛽(𝑢𝑖 , 𝑢𝑖 )
𝛽(𝑤𝑖 , 𝑤𝑖 ) = 𝛽( , )= = 1.
‖𝑢𝑖 ‖ ‖𝑢𝑖 ‖ ‖𝑢𝑖 ‖2
Zeige nun 2 durch vollständige Induktion. Sei {𝑣1 , . . . , 𝑣𝑛 } eine Basis von 𝑉 .
IS: Wir nehmen an {𝑢1 , . . . , 𝑢𝑘−1 } ist eine Orthogonalbasis von ℒ({𝑣1 , . . . , 𝑣𝑘−1 }).
Definiere
𝑘−1
∑︁ 𝛽(𝑢𝑖 , 𝑣𝑘 )
𝑢𝑘 = 𝑣𝑘 − 𝑢𝑖 .
𝑖=1
𝛽(𝑢𝑖 , 𝑢𝑖 )
Dann gilt
𝑘−1
∑︁ 𝛽(𝑢𝑖 , 𝑣𝑘 )
𝛽(𝑢𝑗 , 𝑢𝑘 ) = 𝛽(𝑢𝑗 , 𝑣𝑘 ) − 𝛽(𝑢𝑖 , 𝑢𝑗 )
𝑖=1
𝛽(𝑢𝑖 , 𝑢𝑖 )
𝛽(𝑢𝑗 , 𝑣𝑘 )
= 𝛽(𝑢𝑗 , 𝑣𝑘 ) − 𝛽(𝑢𝑗 , 𝑢𝑗 )
𝛽(𝑢𝑗 , 𝑢𝑗 )
=0
𝛽(𝑢𝑖 , 𝑢𝑗 ) = 0
und nun
𝛽(𝑢𝑗 , 𝑢𝑘 ) = 0 ∀ 1 ≤ 𝑗 ≤ 𝑘 − 1.
Da 𝑣𝑘 linear unabhängig von {𝑣1 , . . . , 𝑣𝑘−1 } ist, gilt
𝑣𝑘 ∈
/ ℒ({𝑣1 , . . . , 𝑣𝑘−1 }) = ℒ({𝑢1 , . . . , 𝑢𝑘−1 }),
also ist 𝑣𝑘 linear unabhängig von {𝑢1 , . . . , 𝑢𝑘−1 }. Also ist auch 𝑢𝑘 linear unabhängig
von {𝑢1 , . . . , 𝑢𝑘−1 }. Also ist {𝑢1 , . . . , 𝑢𝑘 } eine Orthogonalbasis von
𝛽(𝑢𝑖 , 𝑣) = 𝑙𝑖 · 𝛽(𝑢𝑖 , 𝑢𝑖 ),
also
𝛽(𝑢𝑖 , 𝑣)
𝑙𝑖 =
𝛽(𝑢𝑖 , 𝑢𝑖 )
151
Korollar 10.27 (Matrix Version). Sei 𝐵 ∈ Mat(𝑛, 𝑛; R) eine positiv definite symmetrische
Matrix, also 𝐵 = 𝐵 𝑇 , 𝐵 > 0. Dann existiert eine obere Dreiecksmatrix 𝑇 ∈ GL𝑛 (R) mit
𝑇 𝑇 · 𝐵 · 𝑇 = 1𝑛 .
Beweis.
Wende Satz 10.26 auf 𝑉 = Mat(𝑛, 1; R) mit dem Skalarprodukt
< 𝑥, 𝑦 >𝐵 = 𝑥𝑇 · 𝐵 · 𝑦.
Starte mit der Standardbasis 𝐴 = (𝑒1 , . . . , 𝑒𝑛 ) und wende das Gram-Schmidt Verfahren
an
𝐴′ = {𝑢1 , . . . , 𝑢𝑛 } ist eine Orthogonalbasis bezüglich < ∙, ∙ >𝐵 .
Dann haben die 𝑢𝑖 die Eigenschaft, dass (𝑢𝑖 )𝑗 = 0 für alle 𝑗 > 𝑖, das heißt
1 = det(1𝑛 )
= det(𝑇 𝑇 · 𝐵 · 𝑇 )
= det(𝑇 𝑇 ) · det(𝐵) · det(𝑇 )
= det(𝑇 )2 · det(𝐵)
Proposition 10.28
Sei (𝑉, 𝛽) ein Euklidischer Vektorraum. Sei 𝑈 ⊂ 𝑉 ein Untervektorraum und {𝑢1 , . . . , 𝑢𝑘 }
eine Orthogonalbasis von 𝑈 . Dann gilt
2 Die Abbildung
𝜋𝑈 : 𝑉 → 𝑈
𝑣 ↦→ 𝑢
152
erfüllt
𝑘
∑︁ 𝛽(𝑢𝑖 , 𝑣)
𝜋𝑈 (𝑣) = 𝑢𝑖 .
𝑖=1
𝛽(𝑢𝑖 , 𝑢𝑖 )
Sie ist linear und eine Projektion, das heißt
𝜋 𝑈 ∘ 𝜋𝑈 = 𝜋 𝑈 .
𝜋𝑈 ⊥ = 𝑖𝑑𝑉 − 𝜋𝑈 .
𝑢 ↦→ ‖𝑣 − 𝑢‖
Beweis.
𝛽(𝑣, 𝑣) = 0 → 𝑣 = 0.
Also folgt
(𝑖𝑑𝑉 − 𝜋𝑈 )(𝑣) ∈ 𝑈 ⊥ für alle 𝑣 ∈ 𝑉.
Also
𝑣 = 𝑖𝑑𝑉 (𝑣) = 𝜋𝑈 (𝑣) − (𝑖𝑑𝑉 − 𝜋𝑈 )(𝑣)
∋
𝑈 𝑈⊥
also
𝑉 = 𝑈 + 𝑈⊥ = 𝑈 ⊕ 𝑈⊥
2 𝜋𝑈 ist linear.
𝜋𝑈 ∘ 𝜋 𝑈 = 𝜋𝑈
ist, rechnet man leicht unter Verwendung der Orthogonalität von {𝑢1 , . . . , 𝑢𝑘 } nach.
153
3
‖𝑣 − 𝑢‖2 = ‖𝑣 − 𝜋𝑈 (𝑣) + 𝜋𝑈 (𝑣) − 𝑢‖2
= ‖𝑣 − 𝜋𝑈 (𝑣)‖2 + ‖𝜋𝑈 (𝑣) − 𝑢‖2 + 2𝛽(𝑣 − 𝜋𝑈 (𝑣), 𝜋𝑈 (𝑣) − 𝑢)
∋
𝑈⊥ 𝑈
2 2
= ‖𝑣 − 𝜋𝑈 (𝑣)‖ + ‖𝜋𝑈 (𝑣) − 𝑢‖ .
154
Proposition 10.30
Sei 𝑉 ein 𝐾-Vektorraum, 𝛽 eine symmetrische Bilinearform, 𝑓 ∈ End(𝑉 )
selbstadjungiert bezüglich 𝛽. Dann sind die Eigenräume von 𝑓 zu unterschiedlichen
Eigenwerten orthogonal.
Beweis.
Zur Erinnerung: 𝑓 ist selbstadjungiert bezüglich 𝛽, falls
Also folgt
(𝜆1 − 𝜆2 )𝛽(𝑣1 , 𝑣2 ) = 0,
und da 𝜆1 ̸= 𝜆2 , ist 𝜆1 − 𝜆2 ̸= 0, also 𝛽(𝑣1 , 𝑣2 ) = 0.
Proposition 10.31
Sei 𝑉 ein 𝐾-Vektorraum, 𝛽 eine symmetrische Bilinearform, 𝑓 ∈ End(𝑉 ) selbstadjungiert
bezüglich 𝛽. Falls 𝑈 ⊂ 𝑉 ein 𝑓 -invarianter Untervektorraum ist (also 𝑓 (𝑈 ) ⊂ 𝑈 ), so gilt
dies auch für 𝑈 ⊥ (also 𝑓 (𝑈 ⊥ ) ⊂ 𝑈 ⊥ ).
Beweis.
Sei 𝑤 ∈ 𝑈 ⊥ . Dann gilt ∀𝑢 ∈ 𝑈
Satz 10.32
Sei (𝑉, 𝛽) ein Euklidischer Vektorraum, 𝑓 ∈ End(𝑉 ) selbstadjungiert bezüglich 𝛽. Dann
besitzt 𝑉 eine Orthonormalbasis aus Eigenvektoren.
Beweis.
Nach Satz 10.26 hat 𝑉 eine Orthonormalbasis. Sei 𝐹 die Matrixdarstellung von 𝑓
bezüglich dieser Basis. Dann ist 𝐹 symmetrisch (da 𝑓 selbstadjungiert ist), also nach
Proposition 10.29 hat 𝐹 mindestens einen reellen Eigenwert 𝜆 ∈ R. Dieser ist auch ein
Eigenwert von 𝑓 . Betrachte den Eigenraum 𝑉𝜆 (𝑓 ) ⊂ 𝑉 . Dann gilt
𝑉 = 𝑉𝜆 (𝑓 ) ⊕ 𝑉𝜆 (𝑓 )⊥ .
𝑊 := 𝑉𝜆 (𝑓 )⊥
155
ein 𝑓 -invarianter Unterraum.
Falls 𝑊 ̸= 0, dann ist ⃒
𝛽 ⃒𝑊 ×𝑊 : 𝑊 × 𝑊 → R
eine positiv definite symmetrische Bilinearform und
⃒
𝑓 ⃒𝑊 : 𝑊 → 𝑊
ist selbstadjungiert. Also wiederholen wir das Vorgehen, bis wir schließlich eine Zerlegung
erhalten:
𝑉 = 𝑉𝜆1 (𝑓 ) ⊕ 𝑉𝜆2 (𝑓 ) ⊕ · · · ⊕ 𝑉𝜆𝑘 (𝑓 )
von 𝑉 ist die direkte Summe der Eigenräume. Diese Summanden sind paarweise
orthogonal, so dass wir in jedem Summanden eine Orthonormalbasis wählen können,
da ⃒
(𝑉𝜆𝑖 (𝑓 ), 𝛽 ⃒𝑉 (𝑓 )×𝑉 (𝑓 ) )
𝜆𝑖 𝜆𝑖
ein euklidischer Vektorraum ist. Die Vereinigung dieser Orthonormalbasen ist dann eine
Orthonormalbasis von 𝑉 .
Definition 10.33
Eine Matrix 𝑃 ∈ Mat(𝑛, 𝑛; R) heißt orthogonal, falls
𝑃 𝑇 · 𝑃 = 1𝑛 .
Die Menge
O𝑛 (R) = { 𝑃 ∈ Mat(𝑛, 𝑛; R) | 𝑃 𝑇 · 𝑃 = 1𝑛 } ⊂ GL𝑛 (R)
ist eine Untergruppe von GL𝑛 (R). Man nenn sie die orthogonale Gruppe.
Beweis.
1𝑛
also Matℬ (𝛽) = 1𝑛 genau dann, wenn
156
Bemerkung. Sei 𝐴 = (𝑣1 , . . . , 𝑣𝑛 )
(Mat𝒜 (𝛽))𝑖 𝑗 = 𝛽(𝑣𝑖 , 𝑣𝑗 )
𝐴 Orthonormalbasis heißt
𝛽(𝑣𝑖 , 𝑣𝑗 ) = 0 für 𝑖 ̸= 𝑗
𝛽(𝑣𝑖 , 𝑣𝑖 ) = 1
Korollar 10.35. Sei 𝐴 ∈ Mat(𝑛, 𝑛; R) symmetrisch. Dann gibt es ein 𝑃 ∈ O𝑛 (R), so dass
𝑃 −1 · 𝐴 · 𝑃
diagonal ist.
Beweis.
Wende Satz 10.32 auf (𝑉, 𝛽) = (Mat(𝑛, 1; R), <, > ) an.
𝑓 = 𝐴∙ ∈ End(𝑉 )
selbstadjungiert, da 𝐴 = 𝐴𝑇 . Dann gibt es eine Orthonormalbasis 𝐵 von Mat(𝑛, 1; R)
bestehend aus Eigenvektoren von 𝑓 .
𝑃 = Mat𝒜ℬ (𝑖𝑑𝑉 )
wobei 𝐴 = Standardbasis von Mat(𝑛, 1; R). Dann ist
Matℬℬ (𝑓 ) = 𝑃 −1 · 𝐴 · 𝑃
diagonal, aber 𝑃 bildet die Orthonormalbasis 𝐴 auf die Orthonormalbasis 𝐵 ab,
also 𝑃 ∈ O𝑛 (R).
Korollar 10.36. Sei (𝑉, 𝛽) ein Euklidischer Vektorraum und 𝛽˜ eine symmetrische
Bilinearform. Dann existiert eine Basis von 𝑉 , die gleichzeitig die Orthonormalbasis von
𝛽 und eine Orthogonalbasis von 𝛽˜ ist.
Beweis.
Sei 𝐴 = (𝑣1 , . . . , 𝑣𝑛 ) eine Orthonormalbasis von (𝑉, 𝛽). Dann ist
˜
𝐵 := Mat𝒜 (𝛽)
symmetrisch. Nach Korollar 10.35 ∃𝑃 ∈ O𝑛 (R) mit
𝑃 −1 · 𝐵 · 𝑃
diagonal. Dann ist die Basis
𝐵 = (𝑤1 , . . . , 𝑤𝑛 )
mit 𝑛
∑︁
𝑤𝑗 = 𝑝𝑖𝑗 𝑣𝑖
𝑖=1
˜
eine Orthonormalbasis bezüglich 𝛽 und eine Orthogonalbasis bezüglich 𝛽.
157
Bemerkung. Sei 𝑉 ein R-Vektorraum von dim(𝑉 ) = 𝑛, dann können wir auf 𝑉 ein
Skalarprodukt wählen. Sei 𝛽 : 𝑉 × 𝑉 → R eine symmetrische Bilinearform. Dann gibt es
eine Orthogonalbasis 𝐴 bezüglich 𝛽. Also ist
𝐵 = Mat𝒜 (𝛽)
eine Diagonalmatrix.
Aber: Die Eigenwerte von 𝐵 hängen von der Wahl der Basis ab.
Beispiel. 𝑉 = Mat(3, 1; R)
⎛ ⎞
2 1 1
𝛽(𝑥, 𝑦) = 𝑥𝑇 · ⎝1 0 −1⎠ · 𝑦
1 −1 0
⎛ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎞
1 1 −1
Dann ist 𝐴 = 𝑣1 = −1 , 𝑣2 =
⎝ ⎝ ⎠ ⎝ 1 , 𝑣3 =
⎠ ⎝ 1 ⎠⎠ eine Orthogonalbasis mit
1 −1 1
⎛ ⎞
4 0 0
Mat𝒜 (𝛽) = ⎝0 4 0 ⎠
0 0 −4
⎛ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎞
1 0 0
und 𝐴 = 𝑣1 = 1 , 𝑣2 = 1 , 𝑣3 =
′ ⎝ ′ ⎝ ⎠ ′ ⎝ ⎠ ′ ⎝ 1 ⎠⎠ ist eine Orthogonalbasis mit
1 1 −1
⎛ ⎞
4 0 0
Mat𝒜′ (𝛽) = ⎝0 −2 0⎠
0 0 2
Aber: Die Anzahl der positiven und die Anzahl der negativen Eigenwerte hängen nicht
von der Basis ab.
Satz 10.37 (Trägheitssatz von Sylvester)
Sei 𝑉 ein R-Vektorraum, dim(𝑉 ) = 𝑛, 𝛽 eine symmetrische Bilinearform, 𝐴 eine
Orthogonalbasis bezüglich 𝛽 und 𝐵 = Mat𝒜 (𝛽).
Sei
𝑛+ die Anzahl der positiven Eigenwerte von 𝐵
158
Beweis.
𝐴 besteht aus
𝑉+ = ℒ({𝑢1 . . . 𝑢𝑛+ })
𝑉− = ℒ({𝑣1 . . . 𝑣𝑛− })
Dann gilt
𝑉 = 𝑉0 ⊕ 𝑉+ ⊕ 𝑉− .
Sei 𝐴′ eine andere Orthogonalbasis und 𝑉+′ , 𝑉−′ die entsprechenden Untervektorräume.
𝑉0 ⊕ 𝑉+ ⊕ 𝑉− = 𝑉0 ⊕ 𝑉+′ ⊕ 𝑉−′
Behauptung:
𝑉+ ∩ (𝑉−′ ⊕ 𝑉0 ) = {0}
Andernfalls gäbe es ein 0 ̸= 𝑣 ∈ 𝑉+ ∩ (𝑉−′ ⊕ 𝑉0 ). Dann gilt 𝛽(𝑣, 𝑣) > 0, da 𝑣 ∈ 𝑉+ und da
′
𝑣 = 𝑣− + 𝑣0 ∈ 𝑉−′ ⊕ 𝑉0 , also
′ ′ ′ ′
𝛽(𝑣, 𝑣) = 𝛽(𝑣− + 𝑣0 , 𝑣− + 𝑣0 ) = 𝛽(𝑣− , 𝑣− ) + 𝛽(𝑣0 , 𝑣0 ) ≤ 0
𝑉+ ⊕ 𝑉−′ ⊕ 𝑉0 ⊂ 𝑉,
also
𝑛+ + 𝑛′− + 𝑛0 ≤ 𝑛 = 𝑛+ + 𝑛− + 𝑛0 ,
also
𝑛′− ≤ 𝑛−
Wenn wir die Rollen von 𝐴 und 𝐴′ vertauschen, erhalten wir
𝑛− ≤ 𝑛′− .
159
Bemerkung. Das 𝑛-Tupel (dim(𝑉 ), 𝑛+ , 𝑛− ) bestimmt das Paar (𝑉, 𝛽) bis auf Isomorphie.
Satz 10.38
Eine symmetrische Matrix 𝐵 ∈ Mat(𝑛, 𝑛; R) ist positiv definit genau dann, wenn für alle
1 ≤ 𝑘 ≤ 𝑛 die Determinanten der Hauptminoren 𝐵𝑘 = (𝑏𝑖𝑗 )𝑘𝑖 = 1 𝑗𝑘 = 1 positiv sind, also
det(𝐵𝐾 ) > 0 ∀ 1 ≤ 𝑘 ≤ 𝑛.
Beweis.
⇒ det(𝐵𝑘 ) > 0
⇐ Wir nehmen an, dass det(𝐵𝑘 ) > 0 für alle 1 ≤ 𝑘 ≤ 𝑛 und zeigen 𝐵𝑘 > 0 für alle
1 ≤ 𝑘 ≤ 𝑛 durch vollständige Induktion nach 𝑘.
IA: 𝑘 = 1 𝐵𝑘 ist eine 1 × 1-Matrix.
Zu zeigen: 𝐵𝑘 > 0.
Nach Wahl einer Orthogonalbasis bezüglich 𝛽 sind nach der Diagonalbasis 𝑘 −1
der 𝑘 Diagonalbeiträge positiv. Wir wissen auch (nach der Voraussetzung),
dass
det(𝐵𝑘 ) > 0,
also muss der 𝑘-te Diagonaleintrag von 𝐵𝑘 auch positiv sein, also 𝐵𝑘 > 0.
Proposition 10.39
Sei 𝐾 ein Körper mit char(𝐾) ̸= 2, 𝑉 ein endlich dimensionaler 𝐾-Vektorraum und
𝛽 : 𝑉 × 𝑉 → 𝐾 eine symmetrische Bilinearform. Dann existiert eine Orthogonalbasis
von 𝑉 .
160
Beweis.
durch vollständige Induktion nach 𝑛 = dim(𝑉 ).
√
IA: 𝑛 = 1
IS: Annahme: Die Aussage gilt für 𝐾–Vektorräume der Dimension < 𝑛.
√
1. Fall 𝛽 = 0
2. Fall 𝛽 ̸= 0 Behauptung: Dann existiert ein 𝑤 ∈ 𝑉 mit 𝛽(𝑤, 𝑤) ̸= 0.
Beweis durch Widerspruch: Sei 𝛽(𝑣, 𝑣) = 0 ∀ 𝑣 ∈ 𝑉 . Da 𝛽 ̸= 0 ∃𝑥, 𝑦 mit
𝛽(𝑥, 𝑦) ̸= 0. Dann gilt
𝑊 = (𝐾𝑤)⊥ = { 𝑣 ∈ 𝑉 | 𝛽(𝑣, 𝑤) = 0 }.
𝐾𝑤 ∩ 𝑊 ∋ 𝑣 ̸= 0.
0 = 𝛽(𝑣, 𝑤) = 𝑘𝛽(𝑤, 𝑤) ⇒ 𝑘 = 0 ⇒ 𝑣 = 0.
𝛽(𝑤, 𝑣) 𝛽(𝑤, 𝑣)
𝑣= 𝑤 + (𝑣 − 𝑤)
𝛽(𝑤, 𝑤) (𝑤, 𝑤)
∋
𝐾𝑤 𝑊
Proposition 10.40
Sei 𝐾 ein Körper mit char(𝐾) ̸= 2 und sei 𝐴 ∈ Mat(𝑛, 𝑛; 𝐾) symmetrisch. Dann existiert
ein 𝑇 ∈ 𝐺𝐿𝑛 (𝐾), so dass
𝑇𝑇 · 𝐴 · 𝑇
diagonal ist.
161
Index
Abbildung, 10 Dualraum, 65
alternierende, 105 Durchschnitt, 7
duale, 67
lineare, 52 Eigenraum, 126
multilineare, 104 Eigenvektoren, 126
abgeschlossen Eigenwert, 126
algebraisch, 125 Einheitsmatrix, 76
adjungiert, 141 Einschränkung, 11
Adjunkte, 117 Endomorphismus, 54
Argument, 34 Epimorphismus, 54, 59
Aussage, 4 Erzeugendensystem, 41
Austauschsatz von Steinitz, 46 Faktorgruppe, 61
Auswertungsabbildung, 53 Faktormenge, 18
Automorphismus Faktorraum, 62
Gruppe, 27 Fehlstände, 106
Vektorraum, 54
Gauß-Algorithmus, 100
Basis, 44 Gleichungssystem
duale, 66 homogen, 91
geordnete, 81 inhomogen, 91
Basiswechselmatrizen, 87 linear, 90
Beweismethoden, 6 Grad, 121
bijektiv, 13 Gruppe, 20
Bild, 12, 58 abelsche, 20
Bilinearform, 137 alternierend, 108
nicht ausgeartet, 140 lineare
schiefsymmetrisch, 139 allgemeine, 77
symmetrisch, 139 spezielle, 114
Charakteristik, 31 orthogonale, 156
Cramersche Regel, 118 symmetrische, 21, 106
definit Homomorphismus
positiv, 146 Gruppe, 24
Definitionsbereich, 10 Körper, 30
Determinante, 110, 112 Ring, 31
Diagonalisierbarkeit, 132 Vektorraum, 52
Dimensionsformel, 49
imaginäre Einheit, 32
disjunkt, 8
Implikation, 4
Disjunktion, 4
injektiv, 13
Dreiecksungleichung, 33, 148
162
isomorph, 60 Nullpolynom, 121
Isomorphismus Nullstelle, 124
Gruppe, 24 Nullvektorraum, 36
Körper, 30
Vektorraum, 54, 59 Ordnung, 9
Orientierung, 120
kanonisch, 61 orthogonal, 142
Kardinalität, 16 Orthogonalbasis, 143
Kern, 26, 58 Orthonormalbasis, 143
Kofaktormatrix, 117
Permutation, 21, 106
Komplement, 8, 51
Pivotelement, 94
Komposition, 14
Polynom, 121
Konjugation
charakteristisches, 128
komplexe, 33
Potenzmenge, 10
Konjunktion, 4
Projektion, 11
Körper, 27
kanonische, 18, 62, 121
Laplace’scher Entwicklungssatz, 116 orthogonale, 153
Lineare Hülle, 40
Quotientenmenge, 18
Lineare Unabhängigkeit, 41
Linearfaktoren, 126 Rang, 60
Linearkombination, 39 Rechtsinverses, 15
Linksinverses, 15 Relation, 17
Linksnebenklasse, 61 Restklasse, 19
Lösungsraum, 91 Ring, 28
Russel’sches Paradox, 10
Matrix, 69
Darstellung, 137 Signatur, 158
inverse, 76 Signum, 106
komplementäre, 117 Skalarprodukt, 146
orthogonal, 156 Spaltenrang, 78
transponierte, 79 Spaltenraum, 78
Matrixdarstellung, 82 Spaltenvektor, 70
Menge, 6 Spann, 40
leere, 7 Spur, 128
Metrik, 149 Standardbasis, 44
Minor, 117 Strukturmatrix, 137
modulo, 19 Summe
Monomorphismus, 54, 59 äußere direkte, 52
Multilinearform, 104 surjektiv, 13
Multiplizität, 126
Teilmenge, 7
Negation, 4 Transposition, 106
Norm, 148 Trägheitssatz von Sylvester, 158
163
Umkehrabbildung, 13
Untergruppe, 23
Untervektorraum, 37
Urbild, 12
Urbildmenge, 11
Vektorraum, 35
Euklidischer, 150
Vereinigung, 8
disjunkte, 19
Vollständige Induktion, 6
Wertebereich, 10
Zeilenrang, 78
Zeilenraum, 78
Zeilenstufenform, 94
Zeilenvektor, 70
Äquivalenz, 4
Äquivalenzklasse, 17
Äquivalenzrelation, 17
164