Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
∗
Verbesserungsvorschläge und Fehlermeldungen bitte an: kemper@ma.tum.de.
Inhaltsverzeichnis
Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Abbildungen und Mächtigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
7 Ringe und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3
4 Inhaltsverzeichnis
Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
1 Grundbegriffe
1. Vorlesung,
y 17.10.2018
2 Wenn man heutzutage den Aufbau der Mathematik erklären will, kommt
3 man um folgende zwei Elemente nicht herum: Logik und Mengenlehre. In
4 dieser Vorlesung werden wir einen naiven, intuitiven Umgang mit der Logik
5 pflegen und logische Strukturen und Sprechweisen im wesentlichen en passant
6 kennenlernen. Die Mengenlehre werden wir ausführlicher behandeln und ihr
7 den ersten Abschnitt der Vorlesung widmen.
8 Um starten zu können, erinnern wir ganz kurz an einige Sprachelemen-
9 te der Logik, deren inhaltliche Bedeutung wir, wie oben angedeutet, dem
10 gesunden Menschenverstand“ überlassen wollen.
”
11 Sprachelemente der Logik:
12 • und“ (bisweilen geschrieben als ∧),
”
13 • oder“ (bisweilen geschrieben als ∨),
”
14 • nicht“ (bisweilen geschrieben als ¬), sowie die Quantoren
”
15 • für alle“ (geschrieben als ∀, genannt der Allquantor) und
”
16 • es gibt“ (geschrieben als ∃, genannt der Existenzquantor).
”
17 Aus diesen Sprachelementen setzt man neue zusammen:
18 • A ⇒ B bedeutet: B oder nicht A.
19 • A ⇔ B bedeutet A ⇒ B und B ⇒ A.
20 Ein typisches Beispiel für die Verwendung von logischen Sprachelementen
21 ist die bekannte Epsilon-Delta-Definition der Stetigkeit: Es seien f : R → R
22 eine Funktion und x0 ∈ R. Dann heißt f stetig in x0 , falls
23 ∀ ε > 0 ∃ δ > 0: ∀x ∈ R: |x − x0 | < δ ⇒ |f (x) − f (x0 )| < ε .
6 Mengen
1 1 Mengen
9 Aus heutiger Sicht mag man diese Definition kritisieren, weil sie nicht exakt
10 ist und weil die vorkommenden Begriffe ihrerseits einer Definition bedürfen.
11 Schwerer wiegt jedoch die Russelsche Antinomie, die 1903 entdeckt wurde:
12 Gemäß dem Cantorschen Mengenbegriff müsste es auch die Menge aller
13 Mengen geben, die hier mit X bezeichnet werden soll. Insbesondere gilt X ∈
14 X. Weiter können wir auch
15 R := {A ∈ X | A ∈
/ A},
16 also die Menge aller Mengen, die nicht Element von sich selbst sind, bilden.
17 (Das Symbol :=“ bedeutet hierbei: wird definiert als“.) Es gilt R ∈ R
” ”
18 oder R ∈ / R. Falls R ∈ R, wäre die Bedingung A ∈ / A für A = R nicht
19 erfüllt, also definitionsgemäß R ∈/ R. Falls R ∈/ R, wäre A ∈ / A für A = R
20 erfüllt, also definitionsgemäß R ∈ R. Wir erhalten also in beiden Fällen einen
21 Widerspruch.
22 Die Entdeckung dieses Widerspruchs hat das Ende der naiven, Cantor-
23 schen Mengenlehre hervorgerufen. Aber nicht das Ende der Mathematik. Es
24 gab mehrere Schulen, die neue Begründungen der Mengenlehre entwickel-
25 ten. Hiervon hat sich die Zermelo-Fraenkel-Mengenlehre durchgesetzt, die wir
26 hier in Grundzügen besprechen wollen. In der Zermelo-Fraenkel-Mengenlehre
27 wird kein Versuch unternommen, den Mengenbegriff oder die Elementseins-
28 beziehung inhaltlich zu definieren. Es werden lediglich Regeln ( Axiome“)
”
29 postuliert. Ein weiteres Merkmal ist, dass sämtliche mathematische Objek-
30 te Mengen sind. (Eine Variante lässt auch sogenannte Urelemente zu.) Die
31 Zutaten der Zermelo-Fraenkel-Mengenlehre sind:
32 • Logik,
33 • das Symbol ∈“, gelesen als ist Element von“,
” ”
34 • Axiome,
35 • vereinbarte Schreibweisen, Abkürzungen und Sprechweisen.
36 Die folgenden Axiome werden in der Zermelo-Fraenkel-Mengenlehre po-
37 stuliert:
38 • Extensionalitätsaxiom (Seite 7),
39 • Aussonderungsaxiom (Seite 8),
40 • Vereinigungsmengenaxiom (Seite 9),
Mengen 7
11 {x ∈ N | ∃ y ∈ N: x = y 2 }
12 oder
n o
13 x ∈ N | x 6= 1 und ∀ y, z ∈ N: x = y · z ⇒ (y = 1 oder z = 1) .
14 Das folgende Axiom erlaubt es, Mengen zu konstruieren, indem wir aus einer
15 gegebenen Menge alle Elemente, die eine gewisse Bedingung erfüllen, ausson-
16 dern. Was heißt hierbei Bedingung“? Die Antwort fällt in den Bereich der
”
17 Logik. Etwas vergröbert kann man sagen, dass eine Bedingung ein Ausdruck
18 C(x) ist, der aus dem Symbol ∈“, logischen Operatoren, mathematischen
”
19 Objekten und Variablen“ gebildet ist, und in dem x als freie Variable“
” ”
20 vorkommt, während alle anderen Variablen durch Quantoren (∀ und ∃) ge-
21 bunden sind. In der Sprache der Prädikatenlogik würde man sagen: C(x) ist
22 ein einstelliges Prädikat erster Stufe.
23 Axiom 1.4 (Aussonderungsaxiom). Für jede Bedingung C(x) und jede Men-
24 ge A existiert eine Menge B mit:
25 ∀ x: x ∈ B ⇔ x ∈ A und C(x) gilt .
26 Wegen Axiom 1.2 ist die Menge B aus Axiom 1.4 eindeutig bestimmt. Wir
27 schreiben
28 B = {x ∈ A | C(x)} .
29 Beispiel 1.5. Wir kommen auf die Beispiele in 1.3 zurück.
30 (1) Für dieses Beispiel gilt Axiom 1.4 nicht. Man betrachte die Bedingung
31 C(x): ∀ y: y ∈
/ x, die besagt, dass x kinderlos ist. Axiom 1.4 würde nun
32 bedeuten, dass es zu jedem Menschen A einen Menschen B gibt, dessen
33 Kinder genau die kinderlosen Kinder zu A sind. Das ist Unfug!
34 (2) Auch hier gilt Axiom 1.4 nicht. Wir betrachten C(x): x ∈ / Lorenz, wo-
35 bei Lorenz 2010 geboren wurde. C(x) bedeutet, dass x im Jahr 2010
36 oder früher geboren wurde. Martin wurde 2008 geboren. Nach Axi-
37 om 1.4 müsste es einen Menschen B geben, so dass die Menschen,
Mengen 9
1 deren Geburtsjahr nach dem von B liegt, genau diejenigen sind mit
2 2008 < Geburtsjahr ≤ 2010. Das ist Unfug.
3 (3) Auch hier gilt Axiom 1.4 nicht. Man betrachte A = 5 und die Bedingung
4 C(x): x = 4. Axiom 1.4 würde bedeuten, dass es eine natürliche Zahl B
5 gibt, so dass für alle natürlichen Zahlen x gilt: x < B ⇔ x = 4. Auch
6 das ist Unfug!
7 (4) In diesem Beispiel hat jede positive natürliche Zahl A nur das einzige
8 Element A − 1, und die 0 hat gar kein Element. Ist C(x) eine Bedingung
9 und A eine natürliche Zahl, so können wir B = A setzen, falls C(A − 1)
10 gilt, und andernfalls B = 0. Dann wird Axiom 1.4 durch B erfüllt, es gilt
11 also. /
12 Falls überhaupt eine Menge A existiert (dies folgt aus Axiom 1.12 auf
13 Seite 11), dann gibt es nach Axiom 1.4 auch
14 ∅ := {x ∈ A | x 6= x},
15 die leere Menge, die nach Axiom 1.2 eindeutig bestimmt ist, unabhängig
16 von der Wahl von A. Weiter existiert zu Mengen A, B auch die Schnitt-
17 menge
18 A ∩ B := {x ∈ A | x ∈ B} = {x ∈ B | x ∈ A}.
19 Zwei Mengen A, B heißen disjunkt, falls A ∩ B = ∅. Außerdem gibt es zu
20 Mengen A, B die Differenzmenge
21 A \ B := {x ∈ A | x ∈
/ B}.
1 Die Menge B aus[ Axiom 1.6 ist wieder eindeutig bestimmt und wird mit
S
2 M , alternativ A, bezeichnet.
A∈M
3 Können wir mit den bisherigen Axiomen die Existenz der Vereinigung
4 zweier Mengen A, B garantieren? Dazu bräuchten wir eine Menge M , deren
5 Elemente genau A und B sind. Dies liefert das folgende Axiom.
6 Axiom 1.7 (Zweiermengenaxiom). Für alle x, y existiert eine Menge A, so
7 dass gilt:
3. Vorlesung, 8 ∀ z: z ∈ A ⇔ z = x oder z = y .
y 23.10.2018
9 Die durch Axiom 1.7 gegebene, eindeutig bestimmte Menge wird als
10 A = {x, y} geschrieben, bzw. A = {x} im Falle x = y. Man beachte den
11 Unterschied zwischen x und {x}. Beispielsweise ist {∅} 6= ∅. Ebenso beachte
12 man den Unterschied zwischen A ∪ B und {A, B}. Durch Anwendung der
13 Axiome 1.6 und 1.7 kann man auch Dreiermengen {x, y, z} bilden und so
14 weiter.
15 Axiom 1.8 (Potenzmengenaxiom). Zu jeder Menge A existiert eine Menge
16 B, deren Elemente genau die Teilmengen von A sind, es gilt also:
17 ∀ x: x ∈ B ⇔ x ⊆ A .
18 Die durch Axiom 1.8 gegebene Menge heißt die Potenzmenge von A und
19 wird als P(A) geschrieben.
20 Beispiel
1.9. P(∅) = {∅}, P {∅} = ∅, {∅} , und für x 6= y gilt P {x, y} =
21 ∅, {x}, {y}, {x, y} . /
22 Wir haben darauf verzichtet, die Gültigkeit der Axiome 1.6 bis 1.8 in
23 unseren bisherigen Beispielen zu überprüfen. Es folgt nun ein interessantes
24 Beispiel, in dem sie alle erfüllt sind.
25 Beispiel 1.10. Da dies ein Beispiel ist und nicht Teil des Aufbaus der Ma-
26 thematik, ist es legitim, unser Wissen über natürliche Zahlen zu verwenden.
27 Wir treffen wieder die Konvention, dass die natürlichen Zahlen Pmit 0 begin-
mn i
28 nen. Jede natürliche Zahl n hat eine Binärdarstellung n = i=0 i 2 mit
a
29 ai = 0 oder ai = 1 für alle i. Ist k eine weitere natürliche Zahl, so schreiben
30 wir k ∈ n, falls k ≤ mn und ak = 1. (Man könnte auch sagen, dass k ∈ n
31 gilt, falls die größte natürliche Zahl, die ≤ 2nk ist, ungerade ist.) Es gilt also
32 beispielsweise 2 ∈ 5, aber nicht 1 ∈ 5.
33 Es ergibt sich der gewöhnliche Gleichheitsbegriff. Axiom 1.2 besagt, dass
34 zwei natürliche Zahlen mit derselben Binärdarstellung gleich sind, das Axiom
35 gilt also. Wir beobachten, dass jede natürliche Zahl endlich viele Elemen-
36 te enthält. Sind umgekehrt k1 , . . .P, ks endlich viele paarweise verschiedene
s
37 natürliche Zahlen, so enthält n := i=1 2ki genau die Elemente k1 , . . . , ks .
38 Aus dieser Beobachtung folgt die Gültigkeit der Axiome 1.4 und 1.6 bis 1.8.
39 (In der Tat gelten in diesem Beispiel alle Axiome der Zermelo-Fraenkel-
40 Mengenlehre bis auf das Unendlichkeitsaxiom 1.12. Das Beispiel liefert ein
41 Modell für die Mengenlehre endlicher Mengen.)
Mengen 11
S
6 Es sei dem Leser überlassen, die
n Vereinigungsmenge Movon M = 4 294 968 320 =
32 10
7 2 + 2 zu bilden. Was ist ∅, {{∅}} , ∅, {∅} , {∅} ? /
8 Der nächste Schritt ist die Konstruktion der natürlichen Zahlen. Damit
9 stellen wir uns in den Gegensatz zu dem Mathematiker L. Kronecker (1823–
10 1881), der gesagt haben soll: Die natürlichen Zahlen hat der liebe Gott
”
11 gemacht, alles andere ist Menschenwerk.“ Wir setzen
12 0 := ∅,
13 1 := {0}(= {∅}),
14 2 := {0, 1} = 1 ∪ {1} = ∅, {∅} ,
n o
15 3 := {0, 1, 2} = 2 ∪ {2} = ∅, {∅}, ∅, {∅} ,
..
16 .
20 A+ := A ∪ {A}
2 setzen. Damit ist NM induktiv, genauer ist NM die kleinste induktive Teil-
3 menge von M .
4 Proposition 1.13. Sind M und N induktive Mengen, so gilt NM = NN .
5 Beweis. Die Schnittmenge NM ∩ N ist induktiv, also NM ∩ N ∈ IN . Nach
6 Konstruktion folgt NN ⊆ NM ∩ N ⊆ NM . Ebenso zeigt man NM ⊆ NN . t u
7 Nachdem die Unabhängigkeit von der Wahl von M geklärt ist, können
8 und werden wir statt NM auch N schreiben. Um die Theorie der natürli-
9 chen Zahlen weiter zu treiben, kann man nun direkt aus der Konstruktion
10 die sogenannten Peano-Axiome beweisen, mit deren Hilfe sich die natürlichen
11 Zahlen vollständig charakterisieren lassen. Danach kann man durch rekursive
12 Definitionen die Addition und Multiplikation und die Vergleichsrelation ≤“
”
13 natürlicher Zahlen erklären. Nach dem Beweis der Peano-Axiome, spätestens
14 nach der Definition der arithmetischen Operationen, kann man die hier gege-
15 bene Definition von N vergessen und arbeitet nur noch mit den Eigenschaften
16 der natürlichen Zahlen und mit den üblichen Symbolen 0, 1, 2, und so wei-
17 ter. Ebenso erübrigt sich die hier gemachte Konstruktion des Nachfolgers
4. Vorlesung,
18 (Definition 1.11(a)), und man schreibt statt n+ fortan das gebräuchlichere
y 24.10.2018 19 n + 1.
20 Ein wichtiges Beweismittel ist das Prinzip der vollständigen Indukti-
21 on, auch kurz Induktion genannt. Dies funktioniert folgendermaßen: Es sei
22 A(n) eine Aussage über n (genauer: ein Prädikat erster Stufe mit n als freie
23 Variable). Falls es gelingt, zu beweisen dass
24 (a) A(0) gilt und
25 (b) für alle n ∈ N gilt: A(n) ⇒ A(n + 1) ,
26 so folgt, dass A(n) für alle n ∈ N gilt. Intuitiv mag die Gültigkeit des Prinzips
27 der vollständigen Induktion einleuchten, es ist aber doch beweisbedürftig. Wir
28 geben folgenden Beweis: Die Menge
29 S := {n ∈ N | A(n) gilt}
30 ist wegen der Voraussetzungen (a) und (b) induktiv. Nach Konstruktion ist
31 N aber die kleinste induktive Menge, und es folgt S = N. Damit ist gezeigt,
32 dass A(n) für alle n ∈ N gilt.
33 Nachdem N zusammen mit den arithmetischen Operationen und der Re-
34 lation ≤“ konstruiert ist, kann man hieraus Schritt für Schritt die weiteren
”
35 Zahlenbereiche Z, Q, R und C konstruieren. Hierbei sind alle Konstruktio-
36 nen und Beweise im Rahmen der Zermelo-Fraenkel-Mengenlehre machbar.
37 Wir werden es bei dieser Andeutung belassen und den Aufbau des Zahlensy-
38 stems hier nicht behandeln.
39
Mengen 13
13 ∀ A ∈ M ∃ a: A ∩ X = {a}.
4 A × B := {(x, y) | x ∈ A und y ∈ B}
18 Von nun an kann man die exakte (und recht willkürliche) Definition von
19 geordneten Paaren vergessen. Es wird nur noch die Schreibweise (x, y) be-
20 nutzt und die Eigenschaft aus Proposition 1.16.
21 Man kann nun auch geordnete Tripel (x, y, z) durch (x, y, z) := ((x, y), z)
22 definieren und so weiter, entsprechend das kartesische Produkt A × B × C :=
23 (A × B) × C für A, B und C Mengen. Im nächsten Abschnitt lernen wir eine
24 alternative Konstruktion hierfür kennen (siehe Beispiel 2.3(10)).
1 tion durch eine Abbildungsvorschrift gegeben sein muss und inwieweit diese
2 eindeutig sein muss. Wir benutzen die moderne Definition.
3 Definition 2.1. Es seien A, B Mengen. Eine Teilmenge f ⊆ A × B heißt
4 eine Abbildung (= Funktion) von A in B, falls es für jedes x ∈ A genau
5 ein y ∈ B gibt mit (x, y) ∈ f . (Mit genau ein“ ist hierbei gemeint, dass über
”
6 die Existenz von y hinaus für alle y 0 ∈ B gilt: (x, y 0 ) ∈ f ⇒ y 0 = y.)
7 Für dieses y schreiben wir y = f (x) und nennen es das Bild von x (un-
8 ter f ). A heißt der Definitionsbereich, B der Bildbereich von f .
9 Um auszudrücken, dass f eine Abbildung von A in B ist, schreiben wir
10 f : A → B. Falls eine Abbildungsvorschrift bekannt ist und angegeben werden
11 soll, schreibt man f : A → B, x 7→ . . ., wobei die Pünktchen für die Abbil-
12 dungsvorschrift, die das Bild von x definiert, stehen. Diese wird in der Regel
13 aus bereits definierten Abbildungen und anderen mathematischen Objekten
14 ( Konstanten“), bisweilen mit Fallunterscheidungen, gebildet.
”
15 Bevor wir Beispiele betrachten, machen wir ein paar Anmerkungen und
16 eine weitere Definition.
17 Anmerkung. (a) In der Literatur findet man bisweilen die Schreibweise
18 f (x) für eine Funktion. Wir folgen dem Standard, dass f (x) immer für
19 das Bild eines Elements x des Definitionsbereichs steht, und schreiben f
20 für die Funktion selbst.
21 (b) Es gibt keine Funktionen mit mehreren Argumenten“. Allerdings gibt
”
22 es etwa Funktionen f : A × B → C, deren Bilder man zweckmäßigerweise
23 als f (x, y) statt f (x, y) schreibt.
24 (c) Zu jeder Abbildung müssen Definitions- und Bildbereich angegeben wer-
25 den. Laut unserer Definition wird allerdings B nicht eindeutig bestimmt
26 durch f ⊆ A × B. Um dies zu erreichen, wäre es besser, eine Abbildung
27 als ein geordnetes Tripel f = (A, B, C) zu definieren, wobei C ⊆ A × B
28 die Bedingung aus Definition 2 erfüllt. Auch wenn sie formal besser wäre,
29 würden wir mit einer solchen Definition vom gängigen Standard abwei-
30 chen.
31 (d) Aus Definition 2.1 und Proposition 1.16 folgt folgender Gleichheitsbegriff
32 für zwei Abbildungen f, g: A → B:
33 f =g ⇐⇒ ∀ x ∈ A: f (x) = g(x).
/
34 5. Vorlesung,
y 26.10.2018
35 Es folgen weitere Begriffe und Schreibweisen, die mit Abbildungen zu tun
36 haben.
37 Definition 2.2. Es seien A, B Mengen und f : A → B eine Abbildung.
38 (a) Für eine Teilmenge A0 ⊆ A schreiben wir
7 f −1 (B 0 ) := {x ∈ A | f (x) ∈ B 0 } ⊆ A
10 f (x) = f (x0 ) ⇒ x = x0 .
20 f −1 = {(y, x) ∈ B × A | (x, y) ∈ f } .
21 Es ist klar, dass f −1 dann auch bijektiv ist. Statt Umkehrabbildung sagt
22 man bisweilen auch inverse Abbildung oder Inverse. Es besteht Ver-
23 wechselungsgefahr bei den Schreibweisen für das Urbild einer Menge und
24 für die Umkehrabbildung. Eine bessere Notation wäre hier nützlich, stünde
25 aber außerhalb jeder Tradition.
26 Beispiel 2.3. (1) Die Abbildung f : R → R, x 7→ x2 ist weder injektiv noch
27 surjektiv.
28 (2) Mit R≥0 := {x ∈ R | x ≥ 0} definiert
1 idA : A → A, x 7→ x.
15 ist surjektiv, aber nicht injektiv. Das Urbild f −1 ({1}) ist die Menge aller
16 ungerader Zahlen.
17 (9) Die Addition und Multiplikation auf N (und auf den weiteren Zahlenbe-
18 reichen) sind durch Abbildungen a, m: N × N → N definiert. Statt a(i, j)
19 bzw. m(i, j) benutzt man die Schreibweisen i + j bzw. i · j.
20 (10) Ist A eine Menge und n ∈ N>0 := {n ∈ N | n > 0}, so können wir ein
21 n-Tupel von Elementen in A definieren als eine Abbildung
22 {1, . . . , n} → A, i 7→ ai ,
30 f |A0 : A0 → B, x 7→ f (x).
1 (c) Es seien C eine Menge und g: B → C eine weitere Funktion. Die Kom-
2 position (= Hintereinanderausführung) von f und g ist definiert
3 als
4 g ◦ f : A → C, x 7→ g (f (x)) .
5 Ebensogut könnte man schreiben
11 h ◦ (g ◦ f ) = (h ◦ g) ◦ f.
14 f ◦g =g◦f
16 f : N → N, x 7→ 2x und g: N → N, x 7→ x + 1,
19 Die Ungleichheit von f ◦ g und g ◦ f sieht man z.B. durch Einsetzen von
20 x = 0.
21 (c) Ist f : A → B bijektiv, so gelten
23 (d) Die Einschränkung einer nicht injektiven Abbildung kann injektiv sein.
24 (e) Fortsetzungen von Abbildungen sind vor allem dann interessant, wenn
25 man von der Fortsetzung gewisse Eigenschaften (z.B. Stetigkeit) fordert.
26 Dadurch kann es je nach Situation passieren, dass gar keine solche Fort-
6. Vorlesung, 27 setzung existiert, oder eine Fortsetzung eindeutig bestimmt ist. /
y 31.10.2018
28 Der folgende Satz stellt interessante Zusammenhänge zwischen den Begrif-
29 fen injektiv und surjektiv her. Für den Beweis benötigen wir das Auswahl-
30 axiom.
31 Satz 2.6. Es seien A, B Mengen mit A 6= ∅ und f : A → B eine Abbildung.
32 (a) Genau dann ist f injektiv, wenn es eine Abbildung g: B → A gibt mit
Abbildungen und Mächtigkeit 19
1 g ◦ f = idA .
4 f ◦ g = idB .
27 wobei der zweite Ausdruck nur dazu dient zu zeigen, dass die Existenz von
28 M durch die Axiome 1.8 und 1.4 garantiert wird. Wegen der Surjektivität
29 von f ist jede Menge in M nicht leer. Um zu zeigen, dass die Mengen aus
30 M paarweise disjunkt sind, betrachten wir zwei Elemente f −1 ({y}) und
31 f −1 ({y 0 }) aus M . Falls deren Schnittmenge ein Element x enthält, so
32 folgt y = f (x) = y 0 , also f −1 ({y}) = f −1 ({y 0 }). Damit ist die paarweise
33 Disjunktheit von M bewiesen, Axiom 1.14 liefert also eine Menge X mit
34
1 (c) Die Umkehrung von Satz 2.9(b) folgt direkt aus Definition 2.8: Falls A ∼
2 B, dann A . B und B . A.
3 (d) Aus Satz 2.9 folgt, dass B genau dann mächtiger als A ist, wenn es keine
4 Injektion B → A gibt, oder (gemäß Satz 2.6) gleichbedeutend, wenn es
5 keine Surjektion A → B gibt und B nicht leer ist.
6 (e) Da die Komposition zweier Injektionen wieder eine Injektion ist, folgt
7 für Mengen A, B, C aus A . B und B . C die Beziehung A . C
8 ( Transitivität“). Außerdem gilt A . A ( Reflexivität“). Ebenso ist die
” ”
9 Gleichmächtigkeitsbeziehung transitiv und reflexiv, und außerdem sym-
10 metrisch (d.h. aus A ∼ B folgt B ∼ A). /
11 Beispiel 2.11. (1) Die Potenzmenge P({1, 2}) und {1, 2, 3, 4} sind gleichmächtig.
12 Eine Bijektion f zwischen den beiden ist gegeben durch f (1) = ∅,
13 f (2) = {1}, f (3) = {2}, f (4) = {1, 2}.
14 (2) {1, 4, 5} ist mächtiger als {3, 4}. N ist mächtiger als P({1, . . . , 10}).
15 (3) Die Abzählung“ 0, 1, −1, 2,−2, 3, −3, . . . liefert eine Bijektion f : N → Z,
”
16 als Formel f (a) = (−1)a+1 · a+1 2 , wobei für x ∈ R die größte ganze Zahl
17 ≤ x mit bxc bezeichnet wird. Es folgt N ∼ Z.
18 (4) Überraschender ist, dass auch N und das kartesische Produkt N × N
19 gleichmächtig sind. Das Schema
0 1 2 3 4 5 ···
0 0 1 3 6 10 15 · · ·
1 2 4 7 11 16 · · ·
2 5 8 12 17 ···
20
3 9 13 18 ···
4 14 19 ···
5 20 · · ·
..
.
21 liefert eine Abzählung“ von N × N, die man formal durch die Abbildung
”
(a + b)(a + b + 1)
22 f : N × N → N, (a, b) 7→ +a
2
23 beschreiben kann. Es ist etwas mühsam, die Bijektivität von f , die intui-
24 tiv aus obigem Schema hervorgeht, nachzuweisen. Wie behauptet ergibt
25 sich N × N ∼ N.
a
26 (5) Die Surjektion f : Z × N → Q, (a, b) 7→ b+1 liefert Q . Z × N. Ande-
27 rerseits ist N als Teilmenge von Q höchstens so mächtig wie Q. Mit den
28 Beispielen (3) und (4) folgt N . Q . Z × N ∼ N × N ∼ N, also
29 Q∼N
1 ist injektiv, denn eine Menge A wird auf eine reelle Zahl abgebildet, in
2 deren Dezimalbruchentwicklung nur Nuller und Einser vorkommen. Dies
3 liefert P(N) . R. Nun definieren wir eine Abbildung
5 Diese ist injektiv, denn für verschiedene reelle Zahlen x, y mit x < y gibt
6 es bekanntlich eine rationale Zahl a ∈ Q mit x ≤ a < y, also a ∈ g(y) aber
7 a∈/ g(x), wodurch g(x) 6= g(y) gezeigt ist. Wegen dem obigen Beispiel (5)
8 ergibt sich insgesamt
16 R × R ∼ R.
26 B := {x ∈ A | x ∈
/ f (x)} ⊆ A.
27 Es sei x ∈ A beliebig. Für den Nachweis von B 6= f (x) betrachten wir die
28 Fälle x ∈ B und x ∈/ B. Falls x ∈ B, dann folgt x ∈
/ f (x) aus der Definition
29 von B, also B 6= f (x). Falls andererseits x ∈
/ B gilt, so folgt x ∈ f (x), also
30 auch in diesem Fall B 6= f (x).
31 Wie behauptet liegt B nicht im Bild von f , also ist f nicht surjektiv. t u
32 Mit (2.2) folgt, dass R mächtiger als N ist. Die berühmte Kontinuumshy-
33 pothese besagt, dass es keine Menge A gibt, so dass A mächtiger als N und R
34 mächtiger als A ist, dass also nichts zwischen N und R“ liegt. In den 1960er
”
Relationen 23
29 3 Relationen
30 Ebenso wie beim Mengenbegriff unternehmen wir auch beim Begriff einer
31 Relation keinen Versuch einer inhaltlichen Definition.
32 Definition 3.1. Sei A eine Menge. Eine Relation auf A ist eine Teilmenge
33 R ⊆ A × A. Falls R eine Relation ist und x, y ∈ A, schreiben wir häufig xRy
34 statt (x, y) ∈ R und sagen, dass x in der Relation R zu y steht.
35 Anmerkung. Bisweilen werden Relationen auch allgemeiner als Teilmengen
36 eines kartesischen Produkts A × · · · × A von k Exemplaren von A definiert
37 (k-stellige Relation). Eine Relation wie in Definition 3.1 nennt man auch eine
38 binäre Relation.
24 Relationen
9 und so weiter;
10 • die Teilbarkeitsrelation, gegeben durch
11 x|y :⇐⇒ ∃ a ∈ N: y = ax
19 eine Relation.
20 (4) Für eine Menge A sind A × A bzw. ∅ immer Relationen (alles steht in
21 Relation bzw. nichts steht in Relation). /
22 Ist R eine Relation auf einer Menge A, so lässt sich R auf eine Teilmenge
23 B ⊆ A einschränken, indem man (B × B) ∩ R bildet.
24 Ebenso wie Abbildungen können auch Relationen Eigenschaften haben.
25 Definition 3.3. Es sei R ⊆ A × A eine Relation.
26 (a) R heißt reflexiv, falls für alle x ∈ A gilt:
29 xRy ⇒ yRx.
1 Beispiel 3.6. (1) Die Gleichheit ist eine Äquivalenzrelation. Die Äquivalenz-
2 klassen sind alle einelementig, also [x]= = {x} und
3 A/= = {{x} | x ∈ A} ,
7 Es gibt zwei Klassen: [0]≡ , die Klasse aller geraden Zahlen, und [1]≡ , die
8 Klasse aller ungeraden Zahlen. Z/ ≡ hat zwei Elemente.
9 (3) Allgemeiner sei m ∈ N>0 fest gewählt. Für x, y ∈ Z schreiben wir
14 [x]∼ = {x + km | k ∈ Z}
15 und wird auch als die Restklasse von x modulo m bezeichnet. Die Fak-
16 tormenge wird geschrieben als Z/(m). Sie hat genau die m Elemente
18 wobei man statt [0]∼ ebenso gut [m]∼ schreiben könnte und so weiter.
(4) Es sei A = {0, 1} × {0, 1} × {0, 1} das dreifache kartesische Produkt der
Menge {0, 1}. Zwei Tripel (a, b, c) und (a0 , b0 , c0 ) aus A seien äquivalent,
wenn sie bis auf die Reihenfolge übereinstimmen. Es gibt vier Äquiva-
lenzklassen:
19 (5) Die Relation aus Beispiel 3.2(3) ist eine Äquivalenzrelation. Die Äqui-
20 valenzklassen sind die Urbilder f −1 ({y}) der einelementigen Teilmengen
21 der Bildmenge f (A).
22 (6) Für jede Menge A ist A × A eine Äquivalenzrelation. Für alle x, y ∈ A
23 gilt x ∼ y. Falls A nicht leer ist, folgt
24 A/∼ = {A}.
Relationen 27
2 R = {(3, 3), (3, 2), (3, 1), (1, 1), (1, 2), (2, 2), (4, 4)}.
3 Es gilt also 3 ≤ 1 ≤ 2.
4 (5) Ist A eine Menge, so ist die Potenzmenge P(A) durch die Teilmengenbe-
5 ziehung geordnet, für B, C ⊆ A ist also
6 B≤C :⇐⇒ B ⊆ C.
7 (6) Ist ≤“ eine Ordnungsrelation auf einer Menge A, so erhalten wir eine
”
8 neue Ordnungsrelation “ auf A, indem wir für x, y ∈ A definieren:
”
9 xy ⇐⇒ y ≤ x.
40 b ist maximal ⇐⇒ b = a.
1 Beweis. Da jedes größte Element maximal ist, geht die Eindeutigkeit des
2 größten Elements aus der zweiten Behauptung hervor, und es ist nur die Im-
3 plikation ⇒“ zu zeigen. Ist b maximal, so ist a > b unmöglich. Andererseits
”
4 gilt nach Voraussetzung a ≥ b, also folgt a = b.
5 Der Beweis für die entsprechenden Aussagen über kleinste und minimale
6 Elemente läuft analog. t
u
7 Wir haben nun alle Begriffe, um das Zornsche Lemma formulieren zu
8 können.
9 Satz 3.12 (Zornsches Lemma). Falls in einer geordneten Menge M jede
10 Kette nach oben beschränkt ist, so gibt es in M mindestens ein maximales
11 Element.
12 Anmerkung. Bisweilen wird zusätzlich gefordert, dass M nicht leer ist. Die-
13 se Forderung ist jedoch in den Voraussetzungen von Satz 3.12 enthalten, denn
14 es wird insbesondere für die leere Kette die Existenz einer oberen Schranke
15 vorausgesetzt. /
16 Wie bereits erwähnt ist das Zornsche Lemma äquivalent zum Auswahlaxi-
17 om. Der schwierigere Teil des Beweises ist die Herleitung des Zornschen Lem-
18 mas aus dem Auswahlaxiom. Wir könnten dies mit den uns zur Verfügung
19 stehenden Mitteln durchführen, es ist jedoch sehr aufwändig und kompliziert.
20 Der Nachweis findet sich in dem bereits erwähnten Buch von Halmos.
21 Als Anwendung des Zornschen Lemmas führen wir nun den Beweis des
22 Vergleichbarkeitssatzes für Mengen.
Beweis von Satz 2.9(a). Für zwei Mengen A, B ist zu zeigen, dass es eine
injektive Abbildung A → B oder eine injektive Abbildung B → A gibt. Wir
nennen eine Teilmenge C ⊆ A × B des kartesischen Produkts eine partielle
Korrespondenz, falls für alle x, x0 ∈ A und y, y 0 ∈ B gelten:
1 Nachweis von (3.2) läuft entsprechend. Damit ist Z wie behauptet eine obere
2 Schranke von K.
3 Das Zornsche Lemma (Satz 3.12) liefert die Existenz eines maximalen
4 Elements C ∈ M . Wir nehmen nun an, dass es x ∈ A gibt, so dass (x, y 0 ) ∈ /C
5 für alle y 0 ∈ B, und dass es y ∈ B gibt, so dass (x0 , y) ∈
/ C für alle x0 ∈ A.
6 Dann ist (x, y) ∈ / C, aber C ∪ {(x, y)} ist eine partielle Korrespondenz. Dies
7 steht im Widerspruch zur Maximalität von C, die Annahme ist also falsch.
8 Aus der Negation der Annahme erhalten wir zwei Fälle. Im ersten gibt
9 es für alle x ∈ A ein y 0 ∈ B mit (x, y 0 ) ∈ C. Wegen (3.1) ist C dann eine
10 Abbildung A → B, die wegen (3.2) injektiv ist. Im zweiten Fall gibt es für
11 alle y ∈ B ein x0 ∈ A mit (x0 , y) ∈ C. Wegen (3.2) ist C ∗ := {(y, x) ∈ B × A |
12 (x, y) ∈ C} dann eine Abbildung B → A, die wegen (3.1) injektiv ist. Dies
13 schließt den Beweis ab. t
u
14 Wir haben bereits erwähnt, dass das Auswahlaxiom äquivalent ist zum
15 Wohlordnungssatz. Dieser wird in der Vorlesung nie verwendet, wir formu-
16 lieren ihn hier aber.
17 Satz 3.13 (Wohlordnungssatz). Auf jeder Menge gibt es eine Wohlordnung.
18 Die herkömmliche Ordnungsrelation auf N ist definiert durch
3 m = n + y + 1 = (n + 1) + y ≥ n + 1.
4 Dies zeigt, dass n + 1 eine untere Schranke von A ist. Da A aber auch eine
5 Zahl ≤ n + 1 enthält, muss diese gleich n + 1 sein, also n + 1 ∈ A, und damit
12. Vorlesung, 6 ist n + 1 kleinstes Element. t
u
y 16.11.2018
7 Auf Satz 3.14 beruht das Prinzip der starken Induktion, das wir nun
8 vorstellen: Es sei A(n) eine Aussage über eine natürliche Zahl n. Man darf
9 nun voraussetzen, dass A(k) für alle natürlichen Zahlen k < n gilt (Induk-
10 tionsannahme), und muss daraus folgern, dass A(n) gilt. Dann ist A(n) für
11 alle n ∈ N bewiesen.
12 Für den Beweis, dass dies tatsächlich zutrifft, nehmen wir an, dass es
13 natürliche Zahlen n gibt, für die A(n) nicht gilt. Dann ist die Menge
14 M := n ∈ N | A(n) gilt nicht ⊆ N
15 nicht leer. Nach Satz 3.14 hat M ein kleinstes Element n0 ∈ M . Für k ∈ N
16 mit k < n0 folgt k ∈
/ M , also gilt A(k) für diese k. Da man hieraus schließen
17 kann, dass auch A(n0 ) gilt, folgt n0 ∈
/ M , ein Widerspruch.
18 Ein typisches Beispiel für starke Induktion ist der Beweis des folgenden
19 wichtigen Satzes.
20 Satz 3.16. Jede natürliche Zahl n ≥ 2 lässt sich als Produkt von Primzahlen
21 schreiben.
22 Beweis. Es sei n ∈ N. Falls n < 2, so ist nichts zu zeigen, wir nehmen also
23 n ≥ 2 an. Ist n eine Primzahl so sind wir fertig. Andernfalls gibt es eine
24 Zerlegung n = a · b mit 2 ≤ a, b < n. Gemäß der Induktionsannahme sind a
25 und b Produkte von Primzahlen, also auch n. t
u
26 Der Satz sagt nicht, dass die Zerlegung als Produkt von Primzahlen bis
27 auf die Reihenfolge eindeutig ist. Dies beweisen wir (wesentlich) später, siehe
28 Satz 18.14.
29 Es fällt auf, dass das Prinzip der starken Induktion keinen Induktionsan-
30 fang benötigt.
1 Diskrete Strukturen: Graphen
3 Graphen sind diskrete Objekte, die vielseitig zur Beschreibung realer Situa-
4 tionen einsetzbar sind. Wir beginnen mit der Definition.
5 Definition 4.1. Ein Graph ist ein geordnetes Paar G = (V, E), bestehend
6 aus einer nicht-leeren, endlichen Menge V und einer Menge
7 E ⊆ {x, y} | x, y ∈ V, x 6= y
14 V = {B, C, E, G, H, N, P }.
15 Falls zwei dieser Länder aneinander grenzen, seien sie durch eine Kante
16 verbunden. Wir erhalten
17 E = {B, G}, {C, N }, {C, P }, {E, G}, {E, H}, {G, H}, {H, N } ,
B G H N C P
1
E
2 darstellt.
3 (2) Das folgende Diagramm stellt den Graphen mit den zweielementigen Teil-
4 mengen der Menge {1, 2, 3, 4} als Knoten dar, wobei zwei Knoten eine
5 Kante haben, falls ihre Schnittmenge nicht leer ist.
{1,4} {1,3}
{3,4} {1,2}
{2,4} {2,3}
6
7 (3) Auch interessant ist der Graph, dessen Knoten alle Teilnehmer bei Fa-
8 cebook sind, mit Kanten zwischen Facebook-Freunden. Diesen Graphen
9 hier zu zeichnen würde den Umfang des Skrips sprengen. /
10 Anmerkung 4.3. Es gibt einige Varianten des Begriffs eines Graphen. Die
11 wichtigsten hiervon wollen wir hier vorstellen.
12 (a) Zunächst werden häufig auch unendliche Graphen betrachtet, d.h. die
13 Bedingung der Endlichkeit an V wird weggelassen.
14 (b) Manchmal werden in Graphen auch Kanten von einem Knoten zu sich
15 selbst ( Schleifen“) zugelassen, definiert als einelementige Teilmengen von
”
16 V.
17 (c) Gerichtete Graphen: Die Kanten haben eine Richtung und werden
18 durch Pfeile gekennzeichet. Mathematisch definiert man dies, indem man
19 sagt, dass die Kantenmenge eine Teilmenge des kartesischen Produkts
20 V × V ist, wobei Schleifen (also Kanten der Form (x, x)) meist nicht zu-
21 gelassen werden. Ein Beispiel ist die Nahrungskette verschiedener Tierar-
22 ten, die eben im Allgemeinen keine Kette, sondern ein gerichteter Graph
23 ist. Hier betrachten wir: Kormoran (K) und Forelle (F) fressen Steinkrebs
24 (S), Adler (A) und Kormoran fressen Forelle, und Adler frisst Komoran.
25 Der Graph ist
Wege und Bäume 35
K F
1
S
{1}
{1,3}
{3} {1,2} ∅
S
{2,3}
{2}
7
H
∞
E
288
∞
∞
640 775 B
∞
∞
585
L
∞
1
M
{1,4} {1,3}
{3,4} {1,2}
{2,4} {2,3}
1
2 Der Graph ist zusammenhängend. Dies triff nicht auf das Beispiel in Anmer-
3 kung 4.3(d) zu. /
4 Anmerkung 4.6. Für zwei Knoten x, y von G können wir x ∼ y schreiben,
5 falls es einen Weg von x nach y gibt oder x = y. Dies ergibt eine Relation
6 auf V , die reflexiv und symmetrisch ist. Um die Transitivität einzusehen,
7 müssen wir Wege von Knoten x nach y und von y nach z zusammenhängen.
8 Das Resultat ist ein Tupel wie in Definition 4.4(a), aber ohne die Verschie-
9 denheit der xi . Treten in dem Tupel aber zwei gleiche xi auf, so kann man
10 es verkürzen, indem man das Zwischenstück und eines der xi herausnimmt.
11 So bekommt man schließlich einen Weg von x nach z. Damit ist gezeigt,
12 dass ∼“ eine Äquivalenzrelation ist. Die Äquivalenzklassen, zusammen mit
”
13 den Kanten zwischen ihren Knoten, heißen die Zusammenhangskompo-
14 nenten von G. Diese sind zusammenhängend, und G selbst ist genau dann
15 zusammenhängend, falls es nur eine Zusammenhangskomponente gibt. /
16 Zum Thema Zusammenhang und Kreisfreiheit werden wir etwas später
17 beweisen:
18 Satz 4.7. (a) Ist G zusammenhängend, so folgt |E| ≥ |V | − 1.
19 (b) Ist G kreisfrei, so folgt |E| ≤ |V | − 1.
20 (c) G ist genau dann kreisfrei, wenn es für zwei verschiedene Knoten x, y
21 von G höchstens einen Weg von x nach y gibt.
22 Ein wichtiger Typ von Graphen wird durch die folgende Definition gege-
23 ben.
24 Definition 4.8. Der Graph G heißt ein Baum, falls er zusammenhängend
25 und kreisfrei ist. In diesem Zusammenhang nennt man einen kreisfreien
26 Graph auch einen Wald, da seine Zusammenhangskomponenten Bäume sind.
27 Beispielsweise ist der Graph
28
38 Wege und Bäume
22
25
26 Wir sehen, dass Spannbäume nicht eindeutig bestimmt sind. Aber aus
27 Satz 4.9(c) wissen wir, dass alle Spannbäume dieselbe Kantenzahl (hier 5)
28 haben müssen. /
Wege und Bäume 39
1 Satz 4.12. Der Graph G sei zusammenhängend, und H ≤ G sei ein kreis-
2 freier Teilgraph. Dann gibt es einen Spannbaum B von G mit H ≤ B. Insbe-
3 sondere hat jeder zusammenhängende Graph einen Spannbaum.
14. Vorlesung,
y 23.11.2018
4 Beweis. Wir benutzen Induktion nach der Kantenzahl |E|. Falls G bereits
5 kreisfrei ist, gibt es nichts zu zeigen. Wir nehmen also an, dass G einen Kreis
6 K hat. Da H kreisfrei ist, gibt es in diesem Kreis zwei aufeinander folgende
7 Knoten x, y, so dass die Kante {x, y} ∈ E nicht Kante von H ist. Durch
8 Entfernen dieser Kante bilden wir den aufspannenden Teilgraph
G0 := V, E \ {x, y} .
9
1 vom Grad 1. Es sei x1 ∈ V der (einzige) mit x0 verbundene Knoten. Wir ent-
2 fernen nun x0 aus dem Graphen, d.h. wir bilden den (nicht aufspannenden)
3 Teilgraph
G0 := V \ {x0 }, E \ {x0 , x1 } .
4
31 Beweis von Satz 4.9. Die Äquivalenz von (a) und (b) ergibt sich aus Satz 4.7(c)
32 und der Definition von zusammenhängend“ für Graphen. Die Implikation
”
33 (a) ⇒ (c)“ folgt aus der Definition eines Baumes und Lemma 4.15.
”
34 Es bleibt zu zeigen, dass (a) aus (c) folgt, wir haben also die Fälle zu
35 betrachten, dass G zusammenhängend oder kreisfrei ist. Im ersten Fall hat
36 G nach Satz 4.12 einen Spannbaum B = (V, F ). Nach Lemma 4.15 folgt
37 |F | = |V | − 1 = |E|, also F = E und G ist somit selbst ein Baum.
38 Sei nun G kreisfrei. Wie im Beweis von Satz 4.7(b) finden wir einen Baum
39 B = (V, F ) mit E ⊆ F , und Lemma 4.15 mit der Voraussetzung |E| = |V |−1
40 liefert wieder F = E. t
u
Multigraphen und eulersche Graphen 41
15. Vorlesung,
y 27.11.2018
B C
5
D
B C
14
D
15 Die Frage ist nun, ob man sich so durch den Graph bewegen kann, dass
16 man jede Kante genau einmal benutzt. Um diese anzugehen, müssen wir
17 zunächst eine exakte Definition von Multigraphen geben. Es gibt verschiede-
18 ne Möglichkeiten, dies zu tun. Wir folgen der Idee, die Kanten nicht nur als
19 Zweiermengen von Knoten zu definieren, sondern ihnen zusätzlich eine Num-
20 mer zu geben, so dass man verschiedene Kanten zwischen denselben beiden
21 Knoten unterscheiden kann.
42 Multigraphen und eulersche Graphen
1 Definition 5.1. Ein Multigraph ist ein geordnetes Paar G = (V, E), beste-
2 hend aus einer nicht-leeren, endlichen Menge V und einer endlichen Menge
3 E, deren Elemente die Form
4 K = {x, y}, n
2 Hierbei ist momentan offen, ob das Haus des Nikolaus sogar eulersch und
3 nicht nur semi-eulersch ist. Aus Satz 5.4, dessen Beweis wir nun angehen
4 werden, ergibt sich jedoch, dass dies nicht der Fall ist.
5 Wie bei einfachen Graphen ist auch bei Multigraphen der Grad eines
6 Knotens x ∈ V als die Anzahl der von dem Knoten ausgehenden Kanten
7 definiert. Beispielsweise haben im Haus des Nikolaus mit Fundament“ alle
”
8 Knoten den Grad 4 bis auf den obersten, der Grad 2 hat.
9 Proposition 5.3. Die folgenden Aussagen sind äquivalent:
10 (a) Es gibt geschlossene Kantenzüge Z1 , . . . , Zr , so dass jede Kante von E in
11 genau einem der Zi benutzt wird.
12 (b) Sämtliche Knoten von G haben eine gerade Zahl als Grad.
13 Bevor wir die Proposition beweisen, illustrieren wir die Situation der Aus-
14 sage (a) bei dem Haus des Nikolaus mit Fundament“, wobei die Kantenzüge
”
15 Zi durch verschiedene Farben dargestellt sind.
16
G0 := V, E \ {K1 , . . . , Km } .
5
6 Per Induktion folgt nun (a) für G0 und damit, durch Hinzufügen von Z zu
16. Vorlesung, 7 den Kantenzügen von G0 , auch für G. t
u
y 28.11.2018
8 Für die Formulierung der nächsten beiden Sätze benutzen wir folgende ad
9 hoc Notation: Mit G0 bezeichnen wir den Teilgraphen, der aus G durch das
10 Entfernen aller isolierter Knoten aber Beibehalten aller Kanten entsteht.
11 Satz 5.4. Falls E 6= ∅, so sind die folgenden Aussagen äquivalent:
12 (a) G ist eulersch.
13 (b) G0 ist zusammenhängend, und sämtliche Knoten von G haben eine gerade
14 Zahl als Grad.
15 In diesem Fall ist jeder eulersche Kantenzug geschlossen.
16 Beweis. Falls G eulersch ist, gilt die Aussage (a) aus Proposition 5.3 mit r =
17 1, also haben gemäß der Proposition alle Knoten geraden Grad. Außerdem
18 besucht ein eulerscher Kantenzug jeden nicht isolierten Knoten, woraus der
19 Zusammenhang von G0 folgt.
20 Gilt umgekehrt (b), so liefert Proposition 5.3 geschlossene Kantenzüge
21 Z1 , . . . , Zr mit den dort genannten Eigenschaften. Im Falle r = 1 ist (a) ge-
22 zeigt, wir setzen also r ≥ 2 voraus. Nun nehmen wir an, dass es für kein
23 i ∈ {2, . . . , r} einen Knoten gibt, der sowohl von Zi als auch von Z1 besucht
24 wird. Dann gehen von den von Z1 besuchten Knoten nur die Kanten aus Z1
25 aus. Diese Knoten bilden also eine Zusammenhangskomponente, im Wider-
26 spruch zum Zusammenhang von G0 . Es folgt, dass es ein i ≥ 2 gibt, so dass
27 mindestens ein Knoten sowohl von Z1 als auch von Zi besucht wird.
28 Es sei x ein solcher gemeinsam von Z1 und Zi besuchter Knoten. Wir
29 können die Kanten in Z1 und Zi so umnummerieren, dass beide bei x be-
30 ginnen und enden. Nun hängen wir Z1 und Zi zusammen, indem wir die
31 entsprechenden Kanten hintereinander schreiben. Dies ergibt einen geschlos-
32 senen Kantenzug, der alle Kanten von Z1 und von Zi genau einmal benutzt.
33 Nun können wir Z1 durch den neuen Kantenzug ersetzen und Zi streichen.
34 Indem wir so fortfahren, erreichen wir schließlich r = 1.
35 Die letzte Behauptung folgt aus der Beobachtung, dass die Endknoten
36 eines nicht geschlossenen eulerschen Kantenzugs ungeraden Grad haben. t u
37 Beispiel 5.5. Das Aneinanderhängen der Kantenzüge aus dem obigen Beweis
38 ist hier anhand des Hauses des Nikolaus mit Fundament“ illustriert:
”
Multigraphen und eulersche Graphen 45
1 2 2 3 2 3
3 4 4
4 6 5 7 5 7
7 5 1 6 1 6
9
8
Aneinanderhängen Umnummerieren Anhängen des
der grünen und für Start roten Kantenzugs
blauen Kantenzüge links unten
1
2 /
3 Nach Satz 5.4 ist das Haus des Nikolaus also nicht eulersch, aber gemäß
4 dem folgenden Satz semi-eulersch.
5 Satz 5.6. Falls E 6= ∅, so sind die folgenden Aussagen äquivalent:
6 (a) G ist semi-eulersch aber nicht eulersch.
7 (b) G0 ist zusammenhängend, und G hat genau zwei Knoten mit einer un-
8 geraden Zahl als Grad.
9 In diesem Fall hat jeder eulersche Kantenzug die beiden Knoten mit ungera-
10 dem Grad als Endknoten.
11 Beweis. Falls die Aussage (a) gilt, so gibt es einen nicht geschlossenen eu-
12 lerschen Kantenzug. Wir haben schon im Beweis von Satz 5.4 gesehen, dass
13 hieraus der Zusammenhang von G0 folgt. Außerdem haben die Endknoten des
14 eulerschen Kantenzugs ungeraden Grad, alle anderen Knoten aber geraden
15 Grad, es folgt also (b).
16 Nun setzen wir umgekehrt die Aussage (b) voraus. Hieraus folgt, dass jeder
17 eulersche Kantenzug die beiden Knoten mit ungeradem Grad als Endknoten
18 hat, die letzte Behauptung des Satzes. Insbesondere gibt es keinen geschlos-
19 senen eulerschen Kantenzug, G ist also nicht eulersch. Um einzusehen, dass
20 G semi-eulersch ist, verbinden wir die beiden Knoten mit ungeradem Grad
21 durch eine zusätzliche Kante K. Dadurch entsteht ein Graph G0 , bei dem
22 alle Knoten geraden Grad haben. Nach Satz 5.4 ist G0 eulersch, wir haben
23 also einen geschlossenen eulerschen Kantenzug. Dessen Kanten können wir so
24 anordnen, dass die zusätzliche Kante K als letzte Kante benutzt wird. Nun
25 streichen wir diese Kante und erhalten so einen eulerschen Kantenzug in G.
26 Die Aussage (a) gilt also. t
u
27 Das Haus des Nikolaus“ ist demnach semi-eulersch, mit den unteren Kno-
”
28 ten vom Grad 3. Einen eulerschen Kantenzug erhält man, indem zwischen
29 diesen beiden Knoten eine weitere Kante hinzufügt und nun einen geschlosse-
30 nenen eulerschen Kantenzug konstruiert mit der neuen Kante als letzte. Dies
31 wurde in Beispiel 5.5 durchgeführt. Durch Entfernen dieser Kante erhält man
32 folgenden eulerschen Kantenzug für das Haus des Nikolaus“:
”
46 Multigraphen und eulersche Graphen
2 3
4
5 7
1 6
1
8
2 Der obige eulersche Kantenzug ist bei weitem nicht der einzig mögliche.
3 Nun können wir zurückkommen auf unsere Ausgangsfrage, das Königsberger
4 Brückenproblem. Bei dem entsprechenden Multigraph (siehe zu Beginn des
5 Abschnitts) haben sämtliche Knoten ungeraden Grad. Der Graph ist daher
6 nicht semi-eulersch, also hat das Problem eine negative Antwort. Wir können
7 noch mehr sagen: Sobald man eine Brücke abreißt oder hinzubaut, ändert
8 man den Grad von genau zwei Knoten um Eins, also wird der Graph semi-
9 eulersch. Per Wikipedia oder Google Maps erfährt man, dass in der heutigen
10 Innenstadt von Kaliningrad zwei der Brücken fehlen: Es gibt nur noch je eine
11 Brücke zwischen der Insel und den nördlichen und südlichen Stadtgebieten.
12 Der heutige Graph ist also
B C
13
D
14 und damit semi-eulersch. Ein Spaziergang, der jede Brücke genau einmal
15 benutzt, ist in der folgenden Skizze eingezeichnet.
B C
16
D
17 Es gibt aber keinen Rundgang, der jede Brücke genau einmal benutzt.
1 Algebraische Strukturen
17. Vorlesung,
y 31.11.2018
2 Wir beschäftigen uns nun mit den grundlegenden algebraischen Strukturen:
3 Gruppen, Ringe und Körper. Für diese werden wir jeweils die Grundbegriffe
4 und einige Beispiele besprechen.
5 6 Gruppen
Definition 6.1. Eine Gruppe ist eine Menge G zusammen mit einer Ab-
bildung p: G × G → G (die wir Produkt nennen und für die wir die Schreib-
weise p(a, b) = a · b = ab verwenden), so dass die folgenden Axiome gelten:
∀ a, b, c ∈ G : (a · b) · c = a · (b · c), (AG)
1 (a) Es gibt genau ein e ∈ G, das (NE) erfüllt. Dieses e heißt das neutrale
2 Element von G.
3 (b) Für jedes a ∈ G gibt es genau ein a0 ∈ G, das (IE) erfüllt. Dieses a0 heißt
4 das inverse Element zu a und wird mit a0 = a−1 bezeichnet.
5 (c) Für jedes a ∈ G gelten
6 ae = a und aa−1 = e.
7 Beweis. Wir beginnen mit (c). Für a ∈ G gibt es wegen (IE) a0 ∈ G mit
8 a0 a = e und a00 ∈ G mit a00 a0 = e. Es folgt
10 und weiter
11 ae = a(a0 a) = (aa0 )a = ea = a. (6.2)
(IE) (AG) (6.1) (NE)
12 Damit ist (c) nachgewiesen. Zum Beweis von (a) sei ee ∈ G ein weiteres
13 Element, das (NE) erfüllt. Dann folgt
14 ee = eee = e,
(6.2) (NE)
15 a ∈ G ein
was die behauptete Eindeutigkeit liefert. Zum Beweis von (b) sei e
16 weiteres Element mit e
aa = e. Dann folgt
17 a = e
e a(aa0 ) = (e
ae = e aa)a0 = ea0 = a0 .
(6.2) (6.1) (AG) (NE)
und
(a1 , a2 ) · (b1 , b2 ) · (c1 , c2 ) = (a1 , a2 ) · (b1 c1 , b1 c2 + b2 )
= a1 b1 c1 , a1 (b1 c2 + b2 ) + a2 .
1 Durch Vergleich erkennt man die Gültigkeit von (AG). Mit e := (1, 0)
2 gilt für alle (a1 , a2 ) ∈ G:
3 e · (a1 , a2 ) = (a1 , a2 ).
5 (a−1 −1
1 , −a1 a2 ) · (a1 , a2 ) = (1, 0) = e
6 (wobei a−1
1 das reelle Inverse ist). Also ist G eine Gruppe. Ist G abelsch?
7 Das Beispiel (1, 1) · (2, 1) = (2, 2) und (2, 1) · (1, 1) = (2, 3) zeigt, dass dies
8 nicht der Fall ist.
9 (5) Die Menge G = {e} mit e · e = e bildet eine Gruppe, die triviale Gruppe.
10 (6) Die Menge aller Drehungen, die ein Quadrat in sich selbst überführen,
11 ist mit der Komposition eine Gruppe. Sie hat 4 Elemente. Man nennt G
12 die Symmetriegruppe des Quadrates. Auch andere geometrische Objekte
13 haben Symmetriegruppen, ebenso Kristalle oder Moleküle. /
14 Für eine Gruppe G gelten die folgenden Rechenregeln:
15 • ∀ a ∈ G : (a−1 )−1 = a,
16 • ∀ a, b ∈ G : (ab)−1 = b−1 a−1 .
17 Wir verwenden die folgenden Schreibweisen:
18 • Statt (a · b) · c = a · (b · c) schreiben wir a · b · c, und entsprechend a · b · c · d
19 und so weiter.
20 • Für n ∈ N>0 : an = |a ·{z · · a}, a0 = e und a−n = (an )−1 .
n mal
21 • Abelsche Gruppen schreiben wir oft additiv: Statt a · b schreiben wir a + b.
22 In diesem Fall schreiben wir 0 für das neutrale Element und −a für das
inverse Element von a ∈ G.
23 18. Vorlesung,
y 04.01.2018
24 Das für uns wichtigste Beispiel einer Gruppe ist die symmetrische Gruppe,
25 die wir nun einführen.
50 Gruppen
2 SA := {f : A → A | f ist bijektiv}
10 Sn = {id, σ}
18 H = {(a, 0) | a ∈ R \ {0}} .
19 und
20 N = {(1, a) | a ∈ R}.
21 (5) In S3 sind
22 A3 = {id, (1, 2, 3), (3, 2, 1)}
23 und
24 H = {id, (1, 2)}
25 Untergruppen, und ebenso H 0 = {id, (1, 3)} und H 00 = {id, (2, 3)}. /
26 Anmerkung. Es ist leicht zu zeigen, dass der Schnitt zweier Untergruppen
27 einer Gruppe G wieder eine Untergruppe ist. Dies gilt auch für den Schnitt
28 beliebig vieler Untergruppen.
29 Allerdings ist die Vereinigung von Untergruppen in der Regel keine Unter-
30 gruppe, wie man etwa anhand der Untergruppe A3 und H aus Beispiel 6.8(5)
31 sieht. /
32 Definition 6.9. Es seien G eine Gruppe und M ⊆ G eine Teilmenge. Die
33 von M erzeugte Untergruppe von G ist die Menge aller Elemente von
34 G, die sich als Produkt a1 a2 · · · ak beliebiger Länge k schreiben lassen, wobei
35 für jedes i gilt: ai ∈ M oder a−1 i ∈ M . Die Faktoren ai in einem solchen
36 Produkt müssen nicht verschieden sein. Die von M erzeugte Untergruppe ist
37 tatsächlich eine Untergruppe, genauer gesagt die kleinste Untergruppe, die
38 alle Elemente von M enthält.
39 Falls die von M erzeugt Untergruppe ganz G ist, so sagen wir, dass G von
40 M erzeugt wird.
52 Gruppen
1 Beispiel 6.10. (1) Z mit der gewöhnlichen Addition wird durch M = {1}
2 (man sagt auch: durch das Element 1) erzeugt.
3 (2) Die Symmetriegruppe des Quadrats (siehe Beispiel 6.3(6)) wird durch
4 eine Drehung um 900 erzeugt.
5 (3) Die von der Permutation (1, 2, 3) erzeugte Untergruppe der S3 ist die A3
6 (siehe Beispiel 6.8(5)).
7 (4) Die S3 wird von σ = (1, 2, 3) und τ = (1, 2) erzeugt. Dies kann man leicht
8 nachrechnen. /
9 Anmerkung. Die von einer Teilmenge M ⊆ G erzeugte Untergruppe lässt
10 sich auch als der Schnitt aller Untergruppen H ⊆ G mit M ⊆ H definieren.
11 Es kommt dabei dasselbe heraus wir in Definition 6.9. /
12 Die folgende Proposition gibt ein Erzeugendensystem der symmetrischen
13 Gruppe Sn an. Als eine Transposition bezeichnen wir eine Permutation
14 mit Zykeldarstellung von der Form (i, j): Zwei Zahlen werden vertauscht,
15 alle anderen festgelassen. Transpositionen sind ihre eigenen Inversen.
16 Proposition 6.11. Die Gruppe Sn wird von Transpositionen erzeugt.
17 Beweis. Wir benutzen Induktion nach n. Für n ≤ 1 ist |Sn | = 1, also erzeugt
18 durch die leere Menge. Wir setzen ab jetzt n ≥ 2 voraus und müssen zeigen,
19 dass jede Permutation σ ∈ Sn ein Produkt von Transpositionen ist. Zunächst
20 betrachten wir den Fall σ(n) = n. Dann liefert die Einschränkung von σ auf
21 {1, . . . , n − 1} ein Element von Sn−1 , welches nach Induktion ein Produkt
22 von Transpositionen ist. Also ist auch σ ein Produkt von Transpositionen.
23 Schließlich betrachten wir den Fall σ(n) 6= n. Wir setzen k := σ(n) und
24 bilden
25 τ := (k, n) ◦ σ.
26 Es folgt τ (n) = n, also ist τ nach dem obigen Fall ein Produkt von Transpo-
27 sitionen, und σ = (k, n) ◦ τ auch. t
u
28 Anmerkung. Man kann zeigen, dass die Sn auch von den beiden Permuta-
19. Vorlesung, 29 tionen σ = (1, 2, . . . , n) und τ = (1, 2) erzeugt wird. /
y 05.12.2018
30 Definition 6.12. Es seien G und H Gruppen. Eine Abbildung ϕ: G → H
31 heißt ein Homomorphismus (von Gruppen), falls für alle a, b ∈ G gilt:
32 ϕ(ab) = ϕ(a)ϕ(b).
34 Kern(ϕ) := {a ∈ G | ϕ(a) = eH }
35 der Kern von ϕ. (Hierbei ist eH das neutrale Element von H.)
36 Beispiel 6.13. (1) Die Exponentialfunktion liefert einen Homomorphismus
37 von R mit der Addition in R \ {0} mit der Multiplikation. Der Kern
Gruppen 53
1 ist {0} und das Bild ist R>0 . Auch die Exponentialfunktion von C liefert
2 einen Homomorphismus von der additiven Gruppe von C in C \ {0}. Der
3 Kern ist Z · 2πi.
4 (2) Die Abbildung ϕ: Z → {1, −1}, i 7→ (−1)i ist ein Homomorphismus von
5 der additiven Gruppe von Z in die multiplikative Gruppe {±1}. Der Kern
6 besteht aus allen geraden Zahlen.
7 (3) Für eine positive natürliche Zahl n ist ϕn : Z → Z, x 7→ nx ein injektiver
8 Homomorphismus.
9 (4) Es sei G die Gruppe aus Beispiel 6.3(4). Dann ist
10 ϕ: G → R \ {0}, (a1 , a2 ) 7→ a1
13 ψ: G → R, (a1 , a2 ) 7→ a2
20 ϕa : G → G, x 7→ axa−1
21 ein Homomorphismus. /
22 Proposition 6.14. Es seien G, H Gruppen und ϕ: G → H ein Homomor-
23 phismus. Dann gelten:
24 (a) ϕ(eG ) = eH (mit der offensichtlichen Bezeichnung für die neutralen Ele-
25 mente der beiden Gruppen).
26 (b) Für alle a ∈ G gilt ϕ(a−1 ) = ϕ(a)−1 .
27 (c) Bild(ϕ) ⊆ H ist eine Untergruppe.
28 (d) Kern(ϕ) ⊆ G ist eine Untergruppe.
29 (e) Genau dann ist ϕ injektiv, wenn Kern(ϕ) = {eG }.
30 Beweis. (a) Es gilt
6 (d) Wegen (a) gilt eG ∈ Kern(ϕ), also Kern(ϕ) 6= ∅. Weiter gilt für a, b ∈
7 Kern(ϕ):
11 ϕ(a) = eH = ϕ(eG ) =⇒ a = eG .
(a)
12 Da eG wegen (a) immer ein Element von Kern(ϕ) ist, folgt Kern(ϕ) =
13 {eG }.
14 Wir nehmen nun umgekehrt Kern(ϕ) = {eG } an. Es seien a, b ∈ G mit
15 ϕ(a) = ϕ(b). Dann folgt
22 also bab−1 ∈ Kern(ϕ). Man sagt, dass Kern(ϕ) ein Normalteiler von G
23 ist, also eine Untergruppe H, bei der für jedes Element a ∈ H auch die
24 konjugierten Elemente bab−1 (b ∈ G) in H liegen. /
25 Ein bijektiver Homomorphismus G → H zwischen zwei Gruppen heißt
26 auch ein Isomorphismus. Zwei Gruppen G und H heißen isomorph, falls
27 es einen Isomorphismus G → H gibt.
28 Beipielsweise sind die Gruppen S2 und {1, −1} isomorph. Nicht isomorph
29 sind die S3 und die Symmetriegruppe G des regelmäßigen Sechsecks (definiert
30 wie in Beispiel 6.3(6)), obwohl beide Gruppen 6 Elemente haben; denn S3
31 ist nicht abelsch, G aber schon. Isomorphe Gruppen haben exakt die selben
32 gruppentheoretischen Eigenschaften.
Ringe und Körper 55
2 Definition 7.1. Ein Ring ist eine Menge R zusammen mit zwei Abbildun-
3 gen R × R → R, (a, b) 7→ a + b ( Summe“) und R × R → R, (a, b) 7→ a · b
”
4 ( Produkt“), so dass gelten:
”
5 (a) Zusammen mit der Addition ist R eine abelsche Gruppe. (Wir benutzen
6 additive Notation und schreiben 0 für das neutrale Element.)
7 (b) Für a, b, c ∈ R gilt
8 (a · b) · c = a · (b · c).
9 (c) Es gibt 1 ∈ R, so dass für alle a ∈ R gilt:
10 1 · a = a · 1 = a.
12 a · (b + c) = a · b + a · c und (a + b) · c = a · c + b · c.
14 a · b = b · a.
28 0 · a = 0 · a + a − a = 0 · a + 1 · a − a = (0 + 1) · a − a = 1 · a − a = a − a = 0,
20. Vorlesung, 1 und ebenso folgt a · (−b) = −(a · b). t
u
y 07.12.2018
2 Beispiel 7.3. (1) Z, Q, R und C sind kommutative Ringe. Q, R und C sind
3 Körper.
4 (2) Der kleinste Ring ist R = {0} mit 0 + 0 = 0 und 0 · 0 = 0. In diesem Ring
5 gilt 1 = 0.
6 (3) Es seien S eine Menge und A ein (kommutativer) Ring. Dann wird
8 mit
9 f · g: S → A, x 7→ f (x) · g(x)
+ +
15 und
16 (a1 , a2 , a3 ) · (b1 , b2 , b3 ) := (a1 · b1 , a2 · b2 , a1 b3 + a3 b2 ).
17 (Hierbei werden auf den rechten Seiten der Gleichungen die herkömmli-
18 chen Operationen von R benutzt.) Die Bedingungen (a) und (d) aus Defi-
19 nition 7.1 sind unmittelbar klar. Das Assoziativitätsgesetz in (b) bestätigt
20 man durch Nachrechnen. Weiter gilt für (a1 , a2 , a3 ) ∈ R3 :
22 und
23 (a1 , a2 , a3 ) · (1, 1, 0) = (a1 , a2 , a3 ),
24 also gilt auch (c). Ist R kommutativ? Die Antwort lautet nein, denn
26 An der letzten Gleichung sieht man, dass das Produkt zweier Ringele-
27 mente, die beide ungleich 0 sind, trotzdem 0 sein kann. Dies Phänomen
28 kann auch bei kommutativen Ringen auftreten (siehe Beispiel 7.5(2)). /
29 Wir haben in Beispielen schon verschiedentlich über Teilbarkeit von gan-
30 zen Zahlen gesprochen. Dies verallgemeinern wir auf allgemeine kommutative
31 Ringe R, indem wir für a, b ∈ R sagen, dass a ein Teiler von b ist (gleich-
32 bedeutend: a teilt b, oder auch: b ist Vielfaches von a), falls es c ∈ R gibt
33 mit
34 b = ac.
Ringe und Körper 57
1 Wir benutzen hierfür die Schreibweise a | b. Man beachte, dass die Teilbarkeit
2 von dem gewählten Ring abhängt. In R = Q gilt beispielsweise 2 | 3. Der
3 folgende Satz ist zugleich auch eine Definition.
4 Satz 7.4. Es seien R ein kommutativer Ring und a ∈ R.
5 (a) Durch
6 x≡y mod a :⇐⇒ a | (x − y) für x, y ∈ R
7 wird eine Äquivalenzrelation auf R definiert. Falls x ≡ y mod a, so sagen
8 wir, dass x und y kongruent modulo a sind.
9 (b) Die Äquivalenzklasse eines x ∈ R ist
10 [x]≡ = {x + ya | y ∈ R} =: x + Ra
13 R/(a) := R/ ≡= {x + Ra | x ∈ R} .
14 (c) Die Faktormenge R/(a) wird ein kommutativer Ring durch folgende De-
15 finition der Summe und des Produkts: Für C1 , C2 ∈ R/(a) wählen wir
16 x, y ∈ R mit x ∈ C1 und y ∈ C2 und setzen
17 C1 + C2 := (x + y) + Ra und C1 · C2 = xy + Ra.
22 y − x = −(ac) = a(−c)
23 (wegen Satz 7.2(b)), also gilt die Symmetrie. Zum Nachweis der Tran-
24 sitivität seien x, y, z ∈ R mit x ∼ y mod a und y ∼ z mod a, also
25 x − y = ac und y − z = ad mit c, d ∈ R. Dann folgt
26 x − z = (x − y) + (y − z) = ac + ad = a(c + d),
29 y ∈ [x]∼ ⇐⇒ ∃ z ∈ R: y − x = za ⇐⇒ y ∈ x + Ra.
4 und weiter
18 Beispiel 7.5. (1) Für m = 3 werden Summe und Produkt in folgenden Ta-
19 bellen gegeben:
+ 0 1 2 · 0 1 2
0 0 1 2 0 0 0 0
20 und
1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1
· 0 1 2 3
0 0 0 0 0
23 1 0 1 2 3
2 0 2 0 2
3 0 3 2 1
1 Im Beispiel haben wir beobachtet, dass Z/(3) ein Körper ist, Z/(4) aber
2 nicht. Dies sind Instanzen des folgenden Satzes. Wir erinnern daran, dass
3 eine natürliche Zahl n ∈ N eine Primzahl heißt, falls n > 1 und n nur die
4 Teiler 1 und n hat.
5 Satz 7.6. Für m ∈ N>0 ist Z/(m) genau dann ein Körper, wenn m eine
6 Primzahl ist.
7 Beweis. Wir setzen zunächst voraus, dass Z/(m) ein Körper ist. Aus 1 6= 0
8 folgt dann m > 1. Es sei m = xy mit x, y ∈ N und y > 1. Wir müssen
9 y = m zeigen. Wegen 1 ≤ x < m ist x 6= 0, also ist x nach Voraussetzung
10 invertierbar. Wir erhalten
12 Es folgt m | y, also y = m.
13 Nun sei umgekehrt m eine Primzahl. Aus m > 1 folgt dann 1 6= 0. Es sei
14 y ∈ Z/(m) \ {0}. Die Abbildung
15 ϕ: Z/(m) → Z/(m), x 7→ x · y
36 1 + · · · + 1 = 0,
| {z }
m mal
60 Ringe und Körper
9 f = an xn + an−1 xn−1 + · · · + a1 x + a0 .
30 (d) Mit x bezeichnen wir das spezielle Polynom, bei dem 1 ∈ N auf 1 ∈ R und
31 alle anderen i ∈ N auf 0 ∈ R abgebildet werden. Für a ∈ R bezeichnen
32 wir das Polynom mit 0 7→ a und i 7→ 0 für i > 0 mit a. (Anders gesagt:
33 Wir fassen die Elemente von R als spezielle Polynome auf.)
34 (e) Die Menge aller Polynome über R heißt der Polynomring über R und
35 wird mit R[x] bezeichnet.
36 Satz 7.11. Es sei R ein kommutativer Ring.
37 (a) Der Polynomring R[x] ist ein kommutativer Ring.
Ringe und Körper 61
3 (mit x0 := 1).
Beweis. (a) Es ist klar, dass R[x] mit der Summe aus Definition 7.10(c) eine
abelsche Gruppe bildet mit der Nullfolge als Nullelement. Für den Nach-
weis der weiteren Ringaxiome seien f : N → R, i 7→ ai , g: N → R, i 7→ bi
und h: N → R, i 7→ ci drei Polynome. Der i-te Koeffizient von (f · g) · h
ist
i
X
(j-ter Koeffizient von f · g) · ci−j =
j=0
X j
i X X j
i X X
ak bj−k ci−j = ak bj−k ci−j = aj bk cl .
j=0 k=0 j=0 k=0 j,k,l∈N
mit j+k+l=i
1 also gilt die Behauptung auch für i + 1. Für a ∈ R bezeichnen wir die
2 Folge j 7→ a · δ0,j mit a. Also ist a · xi die Folge
j
X
3 j 7→ a · δ0,k δi,j−k = a · δi,j ,
k=0
Pn
4 und für a0 , . . . , an ∈ R ist i=0 ai xi die Folge
n
X
5 j 7→ ai · δi,j = aj .
i=0
22. Vorlesung, 6 Es folgt (7.1). t
u
y 14.12.2018
7 Von nun an schreiben wir Polynome nur noch in der Form (7.1).
8 Die folgende Definition erlaubt es, Elemente eines Rings in Polynome ein-
9 zusetzen.
Pn
10 Definition 7.12. Es seien R ein kommutativer Ring, f = i=0 ai xi ∈ R[x]
11 ein Polynom und c ∈ R.
12 (a) Das Element
n
X
13 f (c) := ai ci ∈ R
i=0
24 Dies kann man auch ausdrücken, indem man sagt, dass die Abbildung
25 R[x] → R, f 7→ f (c) ein Ring-Homomorphismus ist.
26 (c) Ist f ∈ R[x] ein Polynom vom Grad 0 oder −∞, so ist die zugehörige
27 Polynomfunktion konstant. Man nennt f ein konstantes Polynom , falls
28 deg(f ) ≤ 0. /
29 Von nun an beschäftigen wir uns mit Polynomen über Körpern. In diesem
30 Fall kann man Polynome nicht nur addieren und multiplizieren, sondern man
31 hat auch eine Division mit Rest, die im folgenden Satz behandelt wird.
Ringe und Körper 63
8 fe := f − b−1
m an x
n−m
· g.
Pn−1
9 Dann gilt fe = i=0 ci xi mit ci ∈ K. Nach Induktion gibt es qe, r ∈ K[x] mit
11 Es folgt
f = fe + b−1 n−m
· g = qe + b−1 n−m
12 m an x m an x ·g + r.
| {z }
=:q
15 x4 = (x2 + 1)(x2 − 1) + 1,
16 also q = x2 − 1 und r = 1. /
17 Wir bemerken, dass für zwei Polynome f, g ∈ K[x] über einem Körper die
18 Formel
19 deg(f · g) = deg(f ) + deg(g) (7.2)
20 gilt. (Die Konvention deg(0) := −∞ war dadurch motiviert, dass diese Glei-
21 chung auch für das Nullpolynom gelten sollte.) Die obige Formel kann schief-
22 gehen über Ringen, in denen zwei Elemente ungleich Null trotzdem das Pro-
23 dukt 0 haben können.
24 Korollar 7.16. Es sei f ∈ K[x] \ {0} ein Polynom über einem Körper K
25 und c ∈ K eine Nullstelle. Dann gilt
26 f = (x − c) · g (7.3)
29 f = (x − c) · g + r
64 Ringe und Körper
1 mit g, r ∈ K[x], deg(r) < deg(x − c) = 1. Also ist r konstant. Einsetzen von c
2 liefert
3 0 = f (c) = (c − c) · g(c) + r(c) = r.
4 Hieraus folgt (7.3). Die Aussage über den Grad von g folgt aus (7.2). t
u
5 Korollar 7.17. Es sei f ∈ K[x]\{0} ein Polynom über einem Körper. Dann
6 hat f höchstens deg(f ) Nullstellen (in K).
7 Beweis. Wir führen den Beweis durch Induktion nach n := deg(f ). Im Falle
8 n = 0 ist f konstant und ungleich Null, also gibt es keine Nullstellen.
9 Im Weiteren sei n > 0 und c ∈ K eine Nullstelle von f . Nach Korollar 7.16
10 gilt f = (x−c)·g mit g ∈ K[x] und deg(g) = n−1. Für jede weitere Nullstelle
11 b ∈ K von f gilt
12 0 = f (b) = (b − c)g(b).
13 Falls b 6= c, liefert Multiplikation mit (b − c)−1 , dass g(b) = 0 sein muss.
14 Nach Induktion hat aber g höchstens n − 1 Nullstellen, und es folgt die
15 Behauptung. t
u
16 Beispiel 7.18. (1) Wir betrachten f = x4 − 1 ∈ R[x]. Wegen f (1) = 0 ist f
17 durch x − 1 teilbar:
18 x4 − 1 = (x − 1) (x3 + x2 + x + 1) .
| {z }
=:g
20 g = (x + 1)(x2 + 1),
21 also
22 f = (x − 1)(x + 1)(x2 + 1).
23 Das Polynom x2 + 1 hat keine Nullstelle (in R).
24 (2) Um zu sehen, dass die Voraussetzung in Korollar 7.17, dass K ein Körper
25 ist, nicht weggelassen werden kann, betrachten wir den Ring R = Z/(8)
26 und das Polynom f = x2 − 1 ∈ R[x]. Wir finden die Nullstellen 1, 3, 5
27 und 7 von f , also mehr, als der Grad angibt. /
28 Ist f ∈ K[x] \ {0} ein Polynom über einem Körper und c eine Nullstelle, so
29 gilt f = (x − c) · g mit g ∈ K[x] (Korollar 7.16). Man nennt den Faktor x − c
30 auch einen Linearfaktor. Nun kann es passieren, dass c auch eine Nullstelle
31 von g ist. In diesem Fall folgt f = (x − c)2 h mit h ∈ K[x], und man kann
32 fortfahren, bis das verbleibende Polynom c nicht mehr als Nullstelle hat.
33 Der höchste Exponent e, so dass (x − c)e ein Teiler von f ist, heißt die
34 Vielfachheit der Nullstelle c von f . Insbesondere spricht man von einfachen
35 (e = 1) und mehrfachen (e > 1) Nullstellen.
36 Nachdem man alle Linearfaktoren (x−c) zur Nullstelle c von f abgespalten
37 hat, kann man weitere Nullstellen des verbleibenden Polynoms suchen und
Ringe und Körper 65
23. Vorlesung,
y 18.12.2018
2 In diesem Kapitel kommen wir zu den Kernthemen der linearen Algebra: den
3 Vektorräumen, ihren Abbildungen und den Matrizen.
5 In diesem Abschnitt steht K immer für einen Körper. Man verliert nichts
6 Wesentliches, wenn man sich K = R oder K = C vorstellt.
7 Definition 8.1. Ein K-Vektorraum (auch: Vektorraum über K) ist eine
8 Menge V zusammen mit zwei Abbildungen : V × V → V, (v, w) 7→ v w
9 und : K × V → V, (a, v) 7→ a v, so dass folgende Axiome gelten:
10 (1) V ist mit als Verknüpfung eine abelsche Gruppe. Man verwendet addi-
11 tive Schreibweise.
12 (2) Für alle a ∈ K und v, w ∈ V gilt
13 a (v w) = a va w
14 (mit der Konvention Punkt vor Strich, also a va w = (a v)(a w)).
15 (3) Für alle a, b ∈ K und v ∈ V gilt
16 (a + b) v=a vb v.
18 (a · b) v=a (b v).
10 Kn = K × · · · × K
| {z }
n mal
13 und
14 a · (x1 , . . . , xn ) := (ax1 , . . . , axn ) für a, xi ∈ K.
15 Dies sieht man sofort durch Nachprüfen von Definition 8.1. Der Null-
16 vektor ist (0, . . . , 0). Man nennt K n auch den den n-dimensionalen
17 Standardraum.
18 (2) V = {0} (abelsche Gruppe mit nur einem Element 0) wird mit a · 0 := 0
19 für a ∈ K ein K-Vektorraum. Dieser Vektorraum heißt der Nullraum.
20 (3) K selbst ist ein K-Vektorraum (mit der Addition und Multiplikation von
21 K).
22 (4) C ist ein R-Vektorraum; R ist ein Q-Vektorraum.
23 (5) Der Polynomring K[x] ist ein K-Vektorraum (mit der üblichen Polyno-
24 maddition und dem üblichen Produkt einer Konstanten aus K und eines
25 Polynoms).
26 (6) Für (festes) d ∈ N ist {f ∈ K[x] | deg(f ) < d} ein K-Vektorraum.
27 (7) S sei irgendeine Menge und
28 V := K S = {f : S → K | f Abbildung}.
31 (Man sagt auch, dass die Summe von Funktionen und das skalare Viel-
32 fache einer Funktion punktweise definiert werden.) Durch stures Nach-
33 rechen sieht man, dass V ein K-Vektorraum ist. Der Nullvektor ist die
34 sogenannte Nullfunktion f0 , definiert durch f0 (x) = 0 für alle x ∈ S.
35 (8) Gegenbeispiel: Es sei V eine abelsche Gruppe mit neutralem Element 0,
36 aber V 6= {0}. Wir setzen a · v := 0 für alle a ∈ K und v ∈ V . Dann
Vektorräume und Unterräume 69
1 sind die Axiome (1) bis (4) in Definition 8.1 erfüllt, aber (5) nicht. Der
2 mögliche Verdacht, dass (5) überflüssig sein könnte, erweist sich also als
3 unbegründet. /
4 Anmerkung 8.3. Man kann in Definition 8.1 auch K durch einen Ring R
5 ersetzen. Dadurch wird der Begriff eines R-Moduls definiert. Man könnte
6 sagen, dass ein Modul dasselbe ist wie ein Vektorraum, nur über einem Ring
7 statt über einem Körper.
8 Beispielsweise wird jede (additiv geschriebene) abelsche Gruppe G ein Z-
9 Modul, indem wir für n ∈ N und x ∈ G
11 setzen. /
12 Aus den Vektorraumaxiomen ergeben sich ein paar Rechenregeln:
13 Proposition 8.4. Es seien V ein K-Vektorraum und a ∈ K, v ∈ V . Dann
14 gelten:
15 (a) a · 0 = 0 und 0 · v = 0 (in der ersten Gleichung bezeichnet die linke 0 den
16 Nullvektor, in der zweiten das Nullelement von K);
17 (b) (−a) · v = a · (−v) = −(a · v);
18 (c) aus a · v = 0 folgt a = 0 oder v = 0.
21 a · 0 = a · 0 + a · 0 − (a · 0) = a · (0 + 0) − (a · 0) = a · 0 − (a · 0) = 0
(1) (2) (1) (1)
22 und
23 0 · v = 0 · v + 0 · v − (0 · v) = (0 + 0) · v − (0 · v) = 0 · v − (0 · v) = 0.
(1) (3) (1)
24 (b) Es gelten
26 und
1 t
u
2 Definition 8.5. Sei V ein K-Vektorraum. Eine Teilmenge U ⊆ V heißt ein
3 Unterraum (auch: Untervektorraum, Teilraum), falls gelten:
4 (1) U 6= ∅;
5 (2) Für v, w ∈ U ist auch v + w ∈ U (also ist U mit + eine Untergruppe);
6 (3) Für a ∈ K und v ∈ U gilt a · v ∈ U .
7 Aus der Definition folgt sofort:
8 • Jeder Unterraum enthält den Nullvektor.
9 • Mit den Operationen +“ und ·“ von V wird ein Unterraum U selbst ein
” ”
10 K-Vektorraum.
11 • Für den Nachweis, dass eine nicht-leere Teilmenge U ⊆ V ein Unterraum
12 ist, genügt es zu zeigen, dass für v, w ∈ U und a ∈ K auch av + w in U
13 liegt.
14 Beispiel 8.6. (1) V = R2 . Jede Gerade durch den Nullpunkt ist ein Unter-
15 raum. Formaler: Wähle v ∈ V . Dann ist K · v := {a · v | a ∈ K} ⊆ V ein
16 Unterraum. Dies gilt sogar für jeden Vektorraum V und v ∈ V . Geraden
17 im R2 , die nicht durch den Nullpunkt gehen, sind keine Unterräume.
18 (2) U = {0} und V selbst sind Unterräume eines Vektorraums V .
19 (3) Sei V = K[x] der Polynomring und d ∈ N fest. Dann ist
20 U = {f ∈ V | deg(f ) < d} ⊆ V
24. Vorlesung,
y 19.12.2018 21 ein Unterraum (siehe Beispiel 8.2(5) und (6)).
22 (4) Sei S eine Menge und V = K S (siehe Beispiel 8.2(7)). Wähle x ∈ S fest.
23 Dann ist
24 U := {f ∈ V | f (x) = 0} ⊆ V
25 ein Unterraum. (Die Bedingung f (x) = 1 würde nicht zu einem Unter-
26 raum führen!)
27 (5) Die Menge aller stetigen (differenzierbaren) Funktionen R → R bildet
28 einen Unterraum von RR .
29 (6) Die Vereinigungsmenge zweier Geraden U1 , U2 ⊆ R2 durch den Nullpunkt
30 ist kein Unterraum (es sei denn U1 = U2 ). /
31 Das letzte Beispiel zeigt, dass Vereinigungen von Unterräumen im Allge-
32 meinen keine Unterräume sind. Die folgende Proposition beschäftigt sich mit
33 Schnitten von Unterräumen.
34 Proposition 8.7. Es seien V ein K-Vektorraum und U1 , U2 ⊆ V Un-
35 terräume. Dann gelten:
36 (a) U1 ∩ U2 ⊆ V ist ein Unterraum.
37 (b) U1 + U2 := {v + w | v ∈ U1 , w ∈ U2 } ⊆ V ist ein Unterraum.
38 (c) Ist M = 6 ∅ eine nicht-leere Menge, deren Elemente Unterräume von V
39 sind, so ist auch der Schnitt
Vektorräume und Unterräume 71
\ \
1 M= U ⊆V
U ∈M
2 ein Unterraum.
3 Beweis. Wir müssen nur (b) und (c) zeigen, da (a) ein Spezialfall von (c) ist.
4 (b) Es gilt U1 + U2 6= ∅. Seien v + w und v 0 + w0 Elemente von U1 + U2 mit
5 v, v 0 ∈ U1 , w, w0 ∈ U2 . Dann folgt
6 (v + w) + (v 0 + w0 ) = (v + v 0 ) + (w + w0 ) ∈ U1 + U2 ,
1 Wir betrachten nun den Fall, dass S die Vereinigung zweier Unterräume
2 ist.
3 Satz 8.10. Es seien V ein K-Vektorraum, U1 und U2 Unterräume und S :=
4 U1 ∪ U2 . Dann gilt
5 hSi = U1 + U2 .
20 (3) Mit
21 e1 := (1, 0, 0), e2 := (0, 1, 0), e3 := (0, 0, 1) ∈ R3
22 gilt
23 R3 = he1 , e2 , e3 i.
24 Es ist klar, dass sich dies von R3 auf K n verallgemeinern lässt.
25 (4) Es seien V = RR und f, g ∈ V mit f (x) = sin(x) und g(x) = cos(x). Es
26 sei h ∈ hf, gi, also h(x) = a sin(x) + b cos(x) mit a, b ∈ R. Es gibt ein
27 x0 ∈ R mit
p p
28 a = a2 + b2 · cos(x0 ) und b = a2 + b2 · sin(x0 ).
29 Es folgt
p p
30 h(x) = a2 + b2 (cos(x0 ) sin(x) + sin(x0 ) cos(x)) = a2 + b2 ·sin(x0 +x),
2 Dann gilt
3 V = hSi,
4 denn jedes Polynom Pist eine Linearkombination von Potenzen xi . Die
∞
5 Exponentialfunktion i=0 i!1 xi liegt jedoch nicht in hSi, da nur endliche
6 Summen enthalten sind. /
8 Auch in diesem Abschnitt steht K immer für einen Körper. Wir entwickeln
9 Rechentechniken, die bei fast allen rechnerischen Problemen der linearen Al-
10 gebra zum Einsatz kommen.
11 Wir untersuchen Gleichungssysteme von der Art
x1 + 2x3 + x4 = −3
2x1 + 4x3 − 2x4 = 2
12 (9.1)
x2 − x4 = 2
x1 + 2x3 + 2x4 = −5 .
24 mit ai,j ∈ K. Formaler definieren wir eine m × n-Matrix als eine Abbildung
25 {1, . . . , m} × {1, . . . , n} → K, wobei das Bild von (i, j) mit ai,j bezeichnet
26 wird.
27 Das Element ai,j einer Matrix A heißt der (i, j)-te Eintrag von A. Wir
28 benutzen verschiedene Schreibweisen für Matrizen:
Lineare Gleichungssysteme und Matrizen 75
2 wobei die beiden letzten benutzt werden, wenn m und n aus dem Kontext klar
3 sind. Durch die Definition einer Matrix ergibt sich automatisch der Gleich-
4 heitsbegriff von Matrizen: Zwei m × n-Matrizen A = (ai,j ) und B = (bi,j )
5 sind gleich, falls ai,j = bi,j für alle i und j gilt.
6 Die Menge aller m × n-Matrizen wird mit K m×n bezeichnet.
1×n
7 Eine 1 × n-Matrix
(a1 , . . . , an ) ∈ K wird als Zeilenvektor, eine
a1
n × 1-Matrix ... ∈ K n×1 als Spaltenvektor bezeichnet. Elemente des
8
an
9 n-dimensionalen Standardraums werden wir meist als Spaltenvektoren schrei-
10 ben. Es wird sich bald zeigen, warum dies praktisch ist.
11 Für A = (ai,j ) ∈ K m×n und i ∈ {1, . . .
, m} ist(ai,1 , . . . , ai,n ) ∈ K
1×n
die
a1,j
i-te Zeile von A. Für j ∈ {1, . . . , n} ist ... ∈ K m×1 die j-te Spalte
12
am,j
13 von A.
14 Eine Matrix A ∈ K m×n mit m = n heißt quadratisch. Für A = (ai,j ) ∈
m×n
15 K ist AT := (aj,i ) ∈ K n×m die transponierte Matrix; also z.B.
T 14
123
16 = 2 5 .
456
36
1 Unser Ziel ist es, einen Algorithmus zur Bestimmung der Lösungsmenge
2 (also die Menge aller x ∈ K n , für die alle Gleichungen eines LGS gelten)
3 zu entwickeln. Hierfür definieren wir zunächst einige Manipulationen, die auf
4 Matrizen allgemein und im Besonderen auf die erweiterte Koeffizientenmatrix
5 eines LGS angewandt werden können. Diese Manipulationen heißen elemen-
6 tare Zeilenoperationen und gliedern sich in drei Typen:
7 Typ I: Vertauschen zweier Zeilen;
8 Typ II: Multiplizieren einer Zeile mit einem Skalar a ∈ K \ {0};
9 Typ III: Addieren des a-fachen einer Zeile zu einer anderen, wobei a ∈ K.
10 Es ist unmittelbar klar, dass das Anwenden von elementaren Zeilenopera-
11 tionen auf die erweiterte Koeffizientenmatrix eines LGS die Lösungsmenge
12 unverändert lässt. Wir können ein LGS also mit diesen Operationen mani-
13 pulieren mit dem Ziel, es auf eine so einfache Gestalt zu bringen, dass man
14 die Lösungsmenge direkt ablesen kann. Die angestrebte Gestalt ist die Zei-
15 lenstufenform gemäß der folgenden Definition.
16 Definition 9.2. Es sei A ∈ K m×n . Wir sagen, dass A in Zeilenstufen-
17 form ist, falls gelten:
18 (a) Beginnt eine Zeile mit k Nullen, so stehen unter diesen Nullen lauter
19 weitere Nullen.
20 (b) Unter dem ersten Eintrag 6= 0 einer jeden Zeile (falls diese nicht nur aus
21 Nullen besteht) stehen lauter Nullen.
22 Wir sagen, dass A in strenger Zeilenstufenform ist, falls zusätzlich gilt:
23 (c) Über dem ersten Eintrag 6= 0 einer jeden Zeile (falls diese nicht nur aus
24 Nullen besteht) stehen lauter Nullen.
25 Beispiel 9.3. Zur Illustration mögen folgende Beispiele dienen:
012
26 (1) Die Matrix 1 0 0 ist nicht in Zeilenstufenform.
000
012
27 (2) Die Matrix 0 1 1 ist nicht in Zeilenstufenform.
000
1 2 −1
28 (3) Die Matrix 0 0 −1 ist in Zeilenstufenform, aber nicht in strenger Zei-
00 0
29 lenstufenform.
12 0
30 (4) Die Matrix 0 0 −1 ist in strenger Zeilenstufenform. /
00 0
31 Beispiel 9.4. Wir wenden elementare Zeilenoperationen auf die erweiterte
32 Koeffizientenmatrix des LGS (9.1) an mit dem Ziel, die Matrix auf stren-
33 ge Zeilenstufenform zu bringen.
Lineare Gleichungssysteme und Matrizen 77
1 0 2 1 −3 1 0 2 1 −3
2 0 4 −2 2 −2 0 0 0 −4 8
−→ −→
0 1 0 −1 2 Typ III 0 1 0 −1 2 Typ I
1 0 2 2 −5 −1 0 0 0 1 −2
1 0 2 1 −3 1 0 2 1 −3
0 1 0 −1 2 0 1 0 −1 2
−→
Typ −→
0 0 0 −4 8 ·(− 1 II 0 0 0 1 −2 Typ III
4)
0 0 0 1 −2 0 0 0 1 −2 −1
1 0 2 1 −3 −1 1 0 2 0 −1
0 1 0 −1 2 1 0 1 0 0 0
−→
0 0 0 1 −2 Typ III 0 0 0 1 −2
1
000 0 0 0000 0
2 Hierbei haben wir jeweils gekennzeichnet, wie wir von einer Matrix zur
3 nächsten gekommen sind. Dies ist sehr zu empfehlen, damit die Rechnung
4 nachvollziehbar und Fehler korrigierbar sind. /
5 Nun können wir das Verfahren formalisieren. Wir erhalten den berühmten
6 Gauß-Algorithmus.
7 Algorithmus 9.5 (Gauß).
8 Eingabe: Eine Matrix A ∈ K m×n .
9 Ausgabe: Eine Matrix B ∈ K m×n in (strenger) Zeilenstufenform, die aus
10 A durch elementare Zeilenoperationen hervorgeht.
11 (1) Setze B := A.
12 (2) B sei bis zur r-ten Zeile in Zeilenstufenform, d.h. (a) und (b) aus Defini-
13 tion 9.2 seien bis zur r-ten Zeile erfüllt. (Hierbei ist r = 0 möglich!)
14 (3) Falls r = m, so ist B in Zeilenstufenform. Falls strenge Zeilenstufenform
15 gewünscht ist, gehe zu (8).
16 (4) Suche den am weitesten links stehenden Eintrag 6= 0 von B unterhalb
17 der r-ten Zeile. (Falls es mehrere solche Einträge gibt, wähle einen aus.)
18 (5) Bringe diesen Eintrag in die (r + 1)-te Zeile (Operation Typ I).
19 (6) Erzeuge unterhalb dieses Eintrags lauter Nullen (Operationen Typ III,
20 optional auch II).
21 (7) Gehe zu (2).
22 (8) Bringe B auf strenge Zeilenstufenform (Operationen Typ III).
23 Der Gaußalgorithmus ist das rechnerische Herz“ der linearen Algebra.
”
24 Wir werden noch sehen, dass er für viele rechnerische Aufgaben eingesetzt
25 wird. Wir haben ihn im Zusammenhang mit linearen Gleichungssystemen
26 eingeführt. Da wir bereits gesehen haben, dass sich bei elementaren Zeilen-
27 operationen die Lösungsmenge nicht ändert, müssen wir uns nur noch über-
28 zeugen, dass wir anhand einer (strengen) Zeilenstufenform des Systems die
29 Lösungsmenge besonders leicht ablesen können.
78 Lineare Gleichungssysteme und Matrizen
1 Beispiel 9.6. Wir setzen das Beispiel des in (9.1) gegebenen LGS fort. In
2 Beispiel 9.4 wurde die erweiterte Koeffizientenmatrix auf strenge Zeilenstu-
3 fenform gebracht, wodurch wir das äquivalente LGS mit Matrix
1 0 2 0 −1
0 1 0 0 0
4
0 0 0 1 −2
0 0 0 0 0
6 x1 + 2x3 = −1,
7 x2 = 0,
8 x4 = −2.
0 ··· ··· 0 0
x1 b1 /a1,1
Die (einzige) Lösung ergibt sich dann als ... = ..
.
15
.
xn bn /an,n
16 (3) Uneindeutige Lösbarkeit: |L| > 1 ⇔ r < n und jr 6= n + 1. Dann hat die
17 Lösungsmenge n − r freie Parameter. Insbesondere folgt |L| = ∞, falls K
18 unendlich viele Elemente hat (der Standardfall).
19 Allein aus der Anzahl der Gleichungen und der Unbekannten kann man
20 nicht auf den Eintritt einer der Hauptfälle schließen. Als Einziges lässt sich
21 sagen, dass eindeutige Lösbarkeit nur dann eintreten kann, wenn mindestens
22 so viele Gleichungen wie Unbekannte vorhanden sind.
23 Die Zahl r aus Algorithmus 9.7 spielt eine wichtige Rolle. Daher geben wir
24 ihr einen Namen.
80 Lineare Unabhängigkeit und Basen
1 Definition 9.8. Es sei A ∈ K m×n , und A0 ∈ K m×n sei eine Matrix in Zei-
2 lenstufenform, die durch elementare Zeilenoperationen aus A hervorgegangen
3 ist. Dann ist der Rang von A die Anzahl r der Zeilen in A0 , die mindestens
4 einen Eintrag 6= 0 haben. Wir schreiben r =: rg(A).
5 Eine quadratische Matrix A ∈ K n×n heißt regulär, falls rg(A) = n.
6 Das Problem bei dieser Definition ist, dass es verschiedene Matrizen A0
7 gibt, die in Zeilenstufenform sind und die durch elementare Zeilenoperationen
8 aus A hervorgegangen sind. Es ist (bisher) nicht klar, dass all diese A0 dieselbe
9 Anzahl von Zeilen 6= 0 haben. Nur wenn dies klar ist, ist rg(A) eindeutig
10 definiert. Wir werden dies in Abschnitt 10 nachtragen.
11 Wir sehen sofort, dass für A ∈ K m×n die Ungleichung rg(A) ≤ min{m, n}
12 gilt. Unser Lösbarkeitskriterium für LGS können wir nun so formulieren:
13 Satz 9.9. Ein LGS mit erweiterter Koeffizientenmatrix (A|b) ist genau dann
14 lösbar, wenn A denselben Rang hat wie (A|b).
15 In diesem Zusammenhang ist das folgende Resultat interessant:
16 Proposition 9.10. Es seien A, A0 ∈ K m×n , wobei A0 durch elementare Zei-
17 lenoperationen aus A hervorgegangen ist. Dann erzeugen die Zeilen von A
18 denselben Unterraum von K 1×n wie die Zeilen von A0 .
19 Beweis. Wir müssen zeigen, dass elementare Zeilenoperationen den von den
20 Zeilen v1 , . . . , vm erzeugten Raum U nicht ändern.
21 Typ I: Offenbar ändert sich U nicht.
22 Typ II: ebenso.
23 Typ III: Nach Umnummerieren der Zeilen ersetzt die Operation v1 durch
24 v1 + cv2 , c ∈ K. Die neuen Zeilen erzeugen
n m
X o
25 hv1 + cv2 , v2 , . . . , vm i = a1 (v1 + cv2 ) + ai vi | ai ∈ K = U,
i=2
30 In diesem Abschnitt führen wir einige zentrale Begriffe der linearen Algebra
31 ein. Wie zuvor bezeichnet K immer einen Körper und V einen Vektorraum.
32 Bei Beispiel 8.14(1),(3),(4) und (5) fällt auf, dass jeder Vektor aus dem
33 erzeugten Unterraum eindeutig als Linearkombination darstellbar ist, d.h. es
34 gibt nur eine Wahl für die Koeffizienten ai . Beim Beispiel 8.14(2) ist dies
35 nicht der Fall. Diese Beobachtung gibt Anlass zu folgender Definition.
Lineare Unabhängigkeit und Basen 81
3 a1 v1 + · · · + an vn = 0 ⇒ a1 = 0, a2 = 0, . . . , an = 0.
1 Begründung: Die vi sind genau dann linear unabhängig, wenn das homogene
2 LGS mit Koeffizientenmatrix A als einzige Lösung den Nullvektor hat (siehe
3 auch Beispiel 10.2(1) und (2)). Nach (2) auf Seite 79 und Definition 9.8 trifft
4 dies genau dann ein, wenn rg(A) = n.
5 Wegen rg(A) ≤ min{m, n} (siehe nach Definition 9.8) folgt aus unse-
6 rem Test sofort, dass im K m höchstens m Vektoren linear unabhängig sein
7 können. Hat man mehr als m Vektoren, so sind diese automatisch linear
8 abhängig.
9 Definition 10.3. Es sei S ⊆ V eine Teilmenge.
10 (a) S heißt ein Erzeugendensystem von V , falls hSi = V .
11 (b) S heißt eine Basis von V , falls S ein linear unabhängiges Erzeugen-
12 densystem von V ist. Anders gesagt: S ist Basis, falls jedes v ∈ V in
13 eindeutiger Weise als Linearkombination von S darstellbar ist.
14 Beispiel 10.4. (1) Die Vektoren
1 0 0
15 e1 = 0 , e2 = 1 und e3 = 0
0 0 1
19 bilden eine Basis von K 3 . Wir sehen also, dass ein Vektorraum mehrere
20 Basen haben kann. (In der Tat haben fast alle“ Vektorräume sehr viele“
” ”
21 verschiedene Basen.)
22 (3) In Verallgemeinerung von (1) sei
0
..
.
0
n
23 (i-te Position) → 1 =: ei ∈ K .
0
.
..
0
1 (5) Der Nullraum V = {0} hat die leere Menge S = ∅ als Basis. Dies ist einer
2 der exotischen Fälle, in denen es nur eine Basis gibt.
3 (6) Wir betrachten das homogene LGS mit der Koeffizientenmatrix
1 0 2 1
2 0 4 −2
4 A= 0 1 0 −1 .
1 0 2 2
0 0 0 0
0 0
10 ab. (Wir könnten auch das formale Lösungsverfahren 9.7 benutzen.) Der
11 angegebene erzeugende Vektor bildet eine einelementige Basis von L. /
12 Allgemein sei ein homogenes LGS mit der Koeffizientenmatrix A ∈ K m×n
13 gegeben. Es seien k1 , . . . , kn−r ∈ {1, . . . , n} die im Lösungsverfahren 9.7(4)
14 bestimmten Indizes. Für i = 1, . . . , n − r sei vi der durch (9.2) gewonnene
15 Lösungsvektor mit xki = 1 und xkl = 0 für l 6= i. In vi ist die jl -te Kompo-
16 nente also −a−1
l,jl · al,ki (l = 1, . . . , r). Dann ist {v1 , . . . , vn−r } eine Basis des
17 Lösungsraums L. Die Erzeugereigenschaft ergibt sich direkt aus (9.2), Pn−r und
18 diese Gleichung zeigt außerdem, dass die kj -te Koordinate von i=1 bi vi
19 (mit bi ∈ K) genau bj ist, woraus die lineare Unabhängigkeit folgt. Wir ha-
20 ben also ein Verfahren, um für den Lösungsraum eines homogenen LGS eine
21 Basis zu finden.
22 Wir geben nun zwei (zur Definition alternative) Charakterisierungen von
23 Basen an.
24 Satz 10.5. Für eine Teilmenge S ⊆ V sind äquivalent:
25 (a) S ist eine Basis von V .
26 (b) S ist eine maximal linear unabhängige Teilmenge von V (d.h. S ist linear
27 unabhängig, aber für jedes v ∈ V \ S wird S ∪ {v} linear abhängig).
28 (c) S ist ein minimales Erzeugendensystem von V (d.h. V = hSi, aber für
29 alle v ∈ S ist S \ {v} kein Erzeugendensystem).
84 Lineare Unabhängigkeit und Basen
1 Beweis. Wir beginnen mit der Implikation (a) ⇒ (b)“. Sei also S eine Ba-
”
2 sis von V . Dann ist S linear unabhängig, es ist also nur die Maximalität
3 zu zeigen. Hierzu sei v ∈ V \ S. Da S ein Erzeugendensystem ist, gibt es
4 v1 , . . . , vn ∈ S und a1 , . . . , an ∈ K mit
n
X
5 v= ai vi ,
i=1
6 also
n
X
7 (−1) · v + ai vi = 0.
i=1
8 Hierbei können wir die vi als paarweise verschieden annehmen. Dies zeigt,
9 dass {v, v1 , . . . , vn } linear abhängig ist, also auch S ∪ {v}.
10 Nun zeigen wir (b) ⇒ (c)“. Es sei also S maximal linear unabhängig.
”
11 Wir zeigen zunächst, dass S ein Erzeugendensystem ist. Hierzu sei v ∈ V .
12 Falls v ∈ S, so gilt auch v ∈ hSi, und wir sind fertig. Wir dürfen also v ∈ /
13 S annehmen. Nach Voraussetzung ist S ∪ {v} linear abhängig, also gibt es
14 paarweise verschiedene v1 , . . . , vn ∈ S und a, a1 , . . . , an ∈ K, die nicht alle 0
15 sind, so dass
X n
16 av + ai vi = 0.
i=1
22 Nun ist noch die Minimalität von S als Erzeugendensystem zu zeigen. Hierzu
23 sei v ∈ S. Falls S \ {v} ein Erzeugendensystem wäre, dann gäbe es insbeson-
24 dere v1 , . . . , vn ∈ S \ {v} und a1 , . . . , an ∈ K mit
n
X
25 v= ai vi .
i=1
26 Hierbei
Pn können wir die vi als paarweise verschieden annehmen. Es folgt (−1)·
27 v + i=1 ai vi = 0, im Widerspruch zur linearen Unabhängigkeit von S. Also
28 ist S tatsächlich ein minimales Erzeugendensystem.
29 Schließlich zeigen wir (c) ⇒ (a)“. Es sei also S ein minimales Erzeugen-
”
30 densystem. Wir müssen die lineare Unabhängigkeit von S zeigen. PEs seien also
n
31 v1 , . . . , vn ∈ S paarweise verschieden und a1 , . . . , an ∈ K mit i=1 ai vi = 0.
32 Wir nehmen an, dass nicht alle ai Null sind. Durch Umnummerieren können
Lineare Unabhängigkeit und Basen 85
18 und behaupten Y ∈ M . (Hieraus folgt, dass Y eine obere Schranke von C ist.)
19 Es ist klar, dass A ⊆ Y ⊆ S gilt. Zum Nachweis der linearen Unabhängigkeit
20 von Y nehmen wir paarweise verschiedene v1 , . . . , vn ∈ Y . Für jedes i gibt
21 es ein Xi ∈ C mit vi ∈ Xi . Da C totalgeordnet ist, gibt es ein Xi , das alle
22 anderen umfasst. Damit sind v1 , . . . , vn Elemente von diesem Xi . Wegen der
23 linearen Unabhängigkeit von Xi folgt, dass v1 , . . . , vn linear unabhängig ist.
24 Also ist Y linear unabhängig und damit ein Element von M .
25 Das Zornsche Lemma liefert nun die Existenz eines maximalen Elements
26 B ∈ M . Es folgt sofort, dass B linear unabhängig ist und A ⊆ B ⊆ S. Zum
27 Nachweis der Erzeugereigenschaft von B nehmen wir zunächst einen Vektor
28 v ∈ S. Falls v ∈ B, so folgt v ∈ hBi. Andernfalls gilt
29 A ⊆ B $ B ∪ {v} ⊆ S.
30 Wegen der Maximalität von B muss B ∪ {v} also linear abhängig sein, d.h. es
31 gibt paarweise verschiedene v1 , . . . , vn ∈ B und a, a1 , . . . , an ∈ K, die nicht
32 alle 0 sind, so dass
X n
33 av + ai vi = 0.
i=1
3 V = hSi ⊆ hBi ⊆ V.
4 Damit ist B ein linear unabhängiges Erzeugendensystem von V , und der Satz
5 ist bewiesen. t
u
6 Durch Anwendung von Satz 10.6 auf S = V und A = ∅ ergibt sich:
29. Vorlesung, 7 Korollar 10.7 (Basissatz). Jeder Vektorraum hat eine Basis.
y 16.07.2019
8 Anmerkung. Man kann die Begriffe Linearkombination, Erzeugendensy-
9 stem und lineare Unabhängigkeit auch auf Moduln anwenden und somit den
10 Basissatz für Moduln formulieren. Er ist jedoch für Moduln im Allgemeinen
11 falsch. Beispielsweise hat keine nicht-triviale, endliche abelsche Gruppe als
12 Z-Modul (siehe Anmerkung 8.3) eine Basis. /
13 Beispiel 10.8. Es sei M eine unendliche Menge und V = K M . Für V ist
14 keine Basis bekannt, auch wenn Satz 10.6 die Existenz garantiert! Auch in
15 Spezialfällen oder für viele interessante Unterräume ist keine Basis bekannt.
16 Beispielsweise ist keine Basis für den Vektorraum der konvergenten reellen
17 Folgen bekannt.
18 Für jedes x ∈ M kann man die Abbildung δx ∈ V mit δx (y) = 1 für
19 y = x, 0 sonst, betrachten. Dann ist S := {δx | x ∈ M } linear unabhängig.
20 S ist jedoch keine Erzeugendensystem, da es in der linearen Algebra keine
21 unendlichen Summen gibt. /
22 Wir haben gesehen, dass ein Vektorraum (sehr viele) verschiedene Basen
23 haben kann. Unser nächstes Ziel ist der Nachweis, dass alle Basen gleich viele
24 Elemente haben (sofern sie endlich sind). Der Schlüssel hierzu ist das folgende
25 Lemma.
26 Lemma 10.9. Es seien E ⊆ V ein endliches Erzeugendensystem und U ⊆ V
27 eine linear unabhängige Menge. Dann gilt für die Elementanzahlen:
28 |U | ≤ |E|.
29 Beweis. Als Teilmenge einer endlichen Menge ist auch E \ U endlich. Wir be-
30 nutzen Induktion nach |E \ U |. Wir schreiben E = {v1 , . . . , vn } mit v1 , . . . , vn
31 paarweise verschieden.
32 1. Fall: U ⊆ E. Dann ist automatisch |U | ≤ |E|, also nichts zu zeigen.
33 2. Fall: Es gibt ein v ∈ U \ E. Wir werden ein Austauschargument“ be-
”
34 nutzen und einen Vektor von E durch v ersetzen. Dies funktioniert folgen-
35 dermaßen: Wegen V = hEi existieren a1 , . . . , an ∈ K mit
Lineare Unabhängigkeit und Basen 87
1 v = a1 v1 + · · · + an vn . (10.1)
7 dim(L) = n − rg(A).
8 Wie kann man eine Basis eines Unterraums U ⊆ K n finden? Wir nehmen
9 an, U sei durch erzeugende Vektoren v1 , . . . , vm gegeben. Dann bilden wir
10 die Matrix A ∈ K m×n mit den vi als Zeilen. Nun bringen wir A mit dem
11 Gauß-Algorithmus auf Zeilenstufenform. Dann bilden diejenigen Zeilen der
12 Zeilenstufenform, die nicht komplett aus Nullen bestehen, eine Basis von U .
13 Begründung: Nach Proposition 9.10 wird U von den Zeilen der Zeilenstu-
14 fenform erzeugt, also auch durch die Zeilen 6= 0. Außerdem sieht man sofort,
15 dass die Zeilen 6= 0 einer Matrix in Zeilenstufenform immer linear unabhängig
16 sind.
17 Es folgt insbesondere: dim(U ) = rg(A). Damit haben wir bewiesen:
18 Proposition 10.14. Der Rang einer Matrix A ∈ K m×n ist die Dimension
19 des von den Zeilen aufgespannten Unterraums von K 1×n .
20 Hiermit haben wir für den Rang eine nicht-prozedurale Charakterisierung
21 gefunden. Hierdurch ist die Lücke, die sich durch Definition 9.8 ergeben hat,
22 geschlossen. Eine weitere Charakterisierung des Rangs ist bereits in Proposi-
23 tion 10.13 enthalten. Auch diese zeigt die eindeutige Bestimmtheit des Rangs.
24 Wir ziehen noch ein paar weitere Folgerungen aus Lemma 10.9. Die er-
25 ste ermöglicht in vielen Fällen, die Basiseigenschaft zu verifizieren oder zu
26 falsifizieren.
27 Korollar 10.15. Es sei S ⊆ V endlich. Dann gelten:
28 (a) S ist eine Basis von V ⇐⇒ dim(V ) = |S| und S ist linear unabhängig
29 ⇐⇒ dim(V ) = |S| und V = hSi.
30 (b) Falls |S| < dim(V ), so folgt V 6= hSi.
31 (c) Falls |S| > dim(V ), so ist S linear abhängig.
32 Beweis. Wir wählen eine Basis B von V .
33 (b) Falls S ein Erzeugendensystem ist, so folgt |S| ≥ |B| = dim(V ) nach
34 Lemma 10.9. Hieraus ergibt sich (b).
35 (c) Wir nehmen an, dass S linear unabhängig ist. Falls B endlich ist, so folgt
36 |S| ≤ |B| = dim(V ) nach Lemma 10.9. Falls B unendich ist, gilt diese
37 Ungleichung ohnehin. Es ergibt sich (c).
38 (a) Falls S eine Basis ist, so folgt aus Korollar 10.10 und Definition 10.3,
39 dass dim(V ) = |S|, V = hSi, und dass S linear unabhängig ist. Ist um-
40 gekehrt dim(V ) = |S| und S linear unabhängig, so folgt aus (c), dass
Lineare Abbildungen 89
1 S maximal linear unabhängig ist, also ist S nach Satz 10.5 eine Basis.
2 Falls dim(V ) = |S| und V = hSi, so folgt aus (b), dass S ein minimales
3 Erzeugendensystem ist, also ist S nach Satz 10.5 eine Basis. t
u
4 An dieser Stelle lohnt es sich, auf einige formale Parallelen zwischen der
5 Theorie der Basen von Vektorräumen und der Theorie der Spannbäume von
6 Graphen hinzuweisen, auch wenn die tatsächlichen Inhalte der Theorien und
7 die Beweise nichts miteinander zu tun haben. Hierbei entsprechen sich die
8 Begriffe Erzeugendensystem“ und zusammenhängend“ sowie linear un-
” ” ”
9 abhängig“ und kreisfrei“. Genauer gibt es deutliche Parallelen zwischen
”
10 Satz 10.6 und Satz 4.12, zwischen Korollar 10.15(a) und Satz 4.9(c), sowie
11 zwischen Korollar 10.15(b),(c) und Satz 4.7(a),(b)
12 Korollar 10.16. Es sei U ⊆ V ein Unterraum. Dann gelten:
13 (a) dim(U ) ≤ dim(V ).
14 (b) Falls dim(U ) = dim(V ) < ∞, so folgt U = V .
15 Beweis. Es sei A eine Basis von U . Wegen Satz 10.6 gibt es eine Basis B
16 von V mit A ⊆ B. Hieraus folgt (a). Falls dim(U ) = dim(V ) < ∞, so folgt
17 A = B, also U = V . t
u
18 11 Lineare Abbildungen
19 Auch in diesem Abschnitt sei K ein Körper. Weiter seien V und W zwei
20 K-Vektorräume (über demselben Körper K!).
21 Definition 11.1. Eine Abbildung ϕ: V → W heißt linear, falls gelten:
22 (1) Für alle v, v 0 ∈ V : ϕ(v + v 0 ) = ϕ(v) + ϕ(v 0 ). (Hierbei ist das +“ auf der
”
23 linken Seite das von V , das auf der rechten das von W ; ϕ ist also ein
24 Homomorphismus von Gruppen.)
25 (2) Für alle v ∈ V und a ∈ K: ϕ(a · v) = a · ϕ(v).
26 Insbesondere bildet wegen Proposition 6.14(a) eine lineare Abbildung den
27 Nullvektor von V auf den Nullvektor von W ab.
28 Beispiel 11.2. (1) Die folgenden geometrisch definierten Abbildungen R2 →
29 R2 sind linear: Drehungen um den Nullpunkt, Streckungen mit dem Null-
30 punkt als Zentrum, Spiegelungen an einer durch den Nullpunkt gehenden
31 Geraden, Projektionen auf eine durch den Nullpunkt gehende Gerade.
30. Vorlesung,
32 Drehungen um Punkte 6= 0 und Verschiebungen sind nicht linear.
y 18.01.2019
33 (2) Die Nullabbildung V → W , v 7→ 0 ist linear.
34 (3) Sei A = (ai,j ) ∈ K m×n . Dann ist
90 Lineare Abbildungen
x1 y1 n
ϕA : K n → K m , ... 7→ ...
X
mit yi = ai,j xj
1
xn ym j=1
2 eine lineare Abbildung. Dies ist einer der wichtigsten Typen von linearen
3 Abbildungen. Die Bezeichnung ϕA werden wir in Zukunft weiter benut-
4 zen.
5 (4) Für V = R[x] ist
6 ϕ: V → V, f 7→ f 0 (Ableitung)
f (xn )
14 linear. /
15 Sind ϕ, ψ: V → W linear, so gilt dies auch für
16 ϕ + ψ: V → W, v 7→ ϕ(v) + ψ(v).
18 a · ϕ: V → W, v 7→ a · ϕ(v)
19 linear. Dies bedeutet, dass die Menge Hom(V, W ) aller linearer Abbildungen
20 V → W einen K-Vektorraum bildet.
21 Weiter gilt: Sind ϕ: V → W und ψ: W → U (mit U ein weiterer K-
22 Vektorraum) linear, so gilt dies auch für die Komposition ψ ◦ ϕ: V → U .
23 Damit wird Hom(V, V ) sogar zu einem Ring. (Wir werden sehen, dass dieser
24 für dim(V ) ≥ 2 nicht-kommutativ ist.)
25 Definition 11.3. Es sei ϕ: V → W linear. Der Kern von ϕ ist die Menge
26 Kern(ϕ) := {v ∈ V | ϕ(v) = 0} ⊆ V.
Lineare Abbildungen 91
an
Pn
33 v= i=1 ai vi . Wir haben bewiesen:
1 V ∼
= K n.
13 Beweis. Wir betrachten nur den Fall, dass Kern(ϕ) und Bild(ϕ) endlich-
14 dimensional sind. (Der allgemeine Fall geht genauso, benötigt aber aufwändi-
15 gere Notation.) Es seien {w1 , . . . , wn } eine Basis von Bild(ϕ) und {v1 , . . . , vm }
16 eine Basis von Kern(ϕ). Wir können v10 , . . . , vn0 ∈ V wählen mit ϕ(vi0 ) = wi .
17 Behauptung: B := {v1 , . . . , vm , v10 , . . . , vn0 } ist eine Basis von V .
18 Zum Nachweis der linearen Unabhängigkeit sei
1 ve = a1 v1 + · · · + am vm .
4 also v ∈ hBi.
5 Wir haben nachgewiesen, das B eine Basis von V ist, also dim(V ) = |B| =
6 m + n = dim (Kern(ϕ)) + dim (Bild(ϕ)). t
u
31. Vorlesung,
y 23.01.2019
7 Wir betrachten jetzt eine durch eine Matrix A ∈ K m×n gegebene lineare
8 Abbildung ϕA : K n → K m (siehe Beispiel 11.2(3)). Nach Proposition 10.13
9 hat Kern(ϕA ) die Dimension n−rg(A). Satz 11.9 liefert n = dim (Kern(ϕA ))+
10 dim (Bild(ϕA )), also folgt dim (Bild(ϕA )) = rg(A). Was ist Bild(ϕA )? Das
11 Bild besteht genau aus allen Linearkombinationen der Spalten von A. Damit
12 haben wir bewiesen:
13 Korollar 11.10. Der Rang einer Matrix A ∈ K m×n ist die Dimension des
14 von den Spalten aufgespannten Unterraums von K m .
15 Der Vergleich mit Proposition 10.14 ist besonders interessant! Die durch
16 Proposition 10.14 und Korollar 11.10 gegebenen Interpretationen des Rangs
17 laufen unter der Merkregel
18 Zeilenrang“ = Spaltenrang“.
” ”
29 Also ist ϕ genau dann injektiv, wenn dim (Bild(ϕ)) = dim(W ). Dies ist wegen
30 Korollar 10.16(b) gleichbedeutend mit Bild(ϕ) = W , also mit der Surjekti-
31 vität von ϕ. t
u
32 Zum Abschluss des Abschnitts beweisen wir einen Satz, der im folgenden
33 Abschnitt eine wichtige Rolle spielen wird.
94 Darstellungsmatrizen und Matrixprodukt
14 Dies bedeutet ϕ = ψ. Pn
15 (b) Wir definieren ϕ: V → W folgendermaßen: Für v ∈ V sei v = i=1 ai vi
16 mit ai ∈ K. Dann setzen wir
n
X
17 ϕ(v) := ai wi .
i=1
6 A = DC,B (ϕ).
23 also √
√1/2 − 3/2
24 DB (ϕ) = .
3/2 1/2
25 (2) Es sei V = {f ∈ R[x] | deg(f ) < 3} mit Basis B = {1, x, x2 }. Für ϕ: V →
26 V, f 7→ f 0 (Ableitung) erhalten wir
28 also
96 Darstellungsmatrizen und Matrixprodukt
010
1 DB (ϕ) = 0 0 2 .
000
2 /
m×n
3 Wir machen die Menge K aller m×n-Matrizen zu einem K-Vektorraum,
4 indem wir zwei Matrizen A := (ai,j ) und B = (bi,j ) ∈ K m×n komponenten-
5 weise addieren, also
6 A + B = (ai,j + bi,j )i,j ,
7 und das Produkt mit einem Skalar c ∈ K definieren als
8 c · A = (c · ai,j )i,j .
19 In Beispiel 11.2(3) haben wir mit Hilfe einer Matrix eine lineare Abbildung
20 K n → K m definiert, also bereits eine Zuordnung zwischen Matrizen und
21 linearen Abbildungen hergestellt. Besteht zwischen dieser Zuordnung und
22 Definition 12.1 ein Zusammenhang?
23 Satz 12.5. Gegeben seien V = K n und W = K m mit den Standardbasen B
24 und C, und eine lineare Abbildung ϕ: V → W . Mit A := DC,B (ϕ) gilt dann
25 ϕ = ϕA .
i=1 am,j
Darstellungsmatrizen und Matrixprodukt 97
14 Das Produkt ist also nicht komponentenweise definiert. Es ist nur definiert,
15 wenn die Spaltenzahl von A mit der Zeilenzahl von B übereinstimmt. Ein
16 wichtiger Spezialfall ist das
Produkt
einer Matrix A = (ai,j ) ∈ K m×n mit
x1
..
17 einem Spaltenvektor v = . ∈ K n :
xn
y1 n
A · v = ... ∈ K m
X
mit yi = ai,j xj .
18
ym j=1
Beispiel 12.7.
11
101
- 1·1+0·1+1·0 1·1+0·2+1·1 12
· 1 2 = = .
0 1 2- 0·1+1·1+2·0 0·1+1·2+2·1 14
01
??
19
20 /
m×n n m
21 Zu A ∈ K kann man nun die lineare Abbildung ϕA : K → K durch
22 ϕA (v) := A · v definieren. Außerdem können wir ein LGS mit erweiterter
23 Koeffizientenmatrix (A | b) schreiben als A · x = b.
24 Satz 12.8. Es seien U , V und W endlich-dimensionale K-Vektorräume mit
25 Basen A, B bzw. C, und es seien ϕ: U → V und ψ: V → W lineare Abbil-
26 dungen. Dann gilt
98 Darstellungsmatrizen und Matrixprodukt
m
! m
X X
(ψ ◦ ϕ)(uj ) = ψ bk,j vk = bk,j ψ(vk ) =
k=1 k=1
m l
! l m
!
X X X X
bk,j ai,k wi = ai,k bk,j wi .
k=1 i=1 i=1 k=1
7 Aus der Beobachtung, dass im letzten Ausdruck der Koeffizient von wi genau
8 der (i, j)-te Eintrag des Produkts DC,B (ψ) · DB,A (ϕ) ist, folgt die Behaup-
9 tung. t
u
10 Man könnte sagen, dass das Matrixprodukt so definiert ist, dass Satz 12.8
11 richtig wird. Da für drei lineare Abbildungen ϕ1 : V1 → V2 , ϕ2 : V2 → V3 und
12 ϕ3 : V3 → V4 das Assoziativitätsgesetz“ ϕ3 ◦ (ϕ2 ◦ ϕ1 ) = (ϕ3 ◦ ϕ2 ) ◦ ϕ1 gilt,
”
13 folgt für Matrizen A ∈ K m×n , B ∈ K n×l und C ∈ K l×r :
14 (A · B) · C = A · (B · C). (12.1)
15 Wir haben schon gesehen, dass Hom(V, V ) ein Ring wird. Aus Satz 12.8
16 folgt, dass K n×n mit der Addition und Multiplikation von Matrizen ein Ring
17 ist, der isomorph zu der Hom(V, V ) ist. Das Einselement von K n×n ist die
18 Einheitsmatrix
··· 0
1 0
..
0 1 .
In :=
.. = (δi,j )i,j ∈ K n×n .
19
.
.
..
1 0
0 ··· 0 1
2 das sich auf beliebige n × n-Matrizen mit n ≥ 2 ausweiten lässt, zeigt. Damit
3 ist auch Hom(V, V ) für dim(V ) ≥ 2 nicht kommutativ. Das wäre auch nicht
4 zu erwarten gewesen, denn die Komposition von Abbildungen ist selten“
”
33. Vorlesung,
5 kommutativ (siehe Anmerkung 2.5(b)).
y 29.01.2019
6 Aus (12.1) folgt für A ∈ K m×n , B ∈ K n×l und v ∈ K l :
8 also
9 ϕA·B = ϕA ◦ ϕB . (12.2)
n×n
10 Wann ist eine Matrix A ∈ K invertierbar, d.h. wann gibt es eine
11 inverse Matrix A−1 ∈ K n×n mit A · A−1 = In ? Dies gilt wegen (12.2)
12 genau dann, wenn die zugehörige lineare Abbildung ϕA : K n → K n surjektiv
13 ist. Nach Korollar 11.11 ist dies gleichbedeutend mit der Injektivität von ϕA ,
14 also nach Beispiel 11.5(1) damit, dass rg(A) = n. Wir halten fest:
16 Für die Bedingung rg(A) = n haben wir auch die Sprechweise eingeführt,
17 dass A regulär ist.
18 Da aus der Invertierbarkeit von A die Bijektivität von ϕA folgt, gilt auch
19 ϕ−1
A ◦ ϕA = id. Hieraus folgt mit (12.2), dass auch A
−1
A = In gilt.
20 Für das Berechnen einer inversen Matrix zu A ∈ K n×n haben wir das
21 folgende Verfahren.
22 (1) Bilde die erweiterte“ Matrix (A|In ) ∈ K n×(2n) durch Anhängen einer
”
23 Einheitsmatrix.
24 (2) Führe diese (mit dem Gauß-Algorithmus) über in strenge Zeilenstufen-
25 form, so dass zusätzlich in jeder Zeile 6= 0 der erste Eintrag 6= 0 eine 1
26 ist.
27 (3) 1. Fall: Die Zeilenstufenform hat die Gestalt (In |B) mit B ∈ K n×n : Dann
28 gilt B = A−1 , und wir sind fertig.
29 2. Fall: Die Zeilenstufenform hat eine andere Gestalt: Dann ist rg(A) < n,
30 A ist also nicht invertierbar.
31 Die Korrektheit des Algorithmus begründen wir wie folgt: Es werden si-
32 multan die LGSe A · x = ei (i-ter Standardbasisvektor) gelöst. Der erste Fall
33 ist der Fall eindeutiger Lösbarkeit. Dann sind die Spalten von B jeweils die
34 Lösungsvektoren, und es folgt A · B = In .
1 −2 0
35 Beispiel 12.9. Wir möchten die Matrix A = −1 3 −2 ∈ R3×3 invertie-
−1 2 −1
36 ren. Obiges Verfahren läuft wie folgt ab:
100 Darstellungsmatrizen und Matrixprodukt
1 −2 0 1 0 0 1 −2 0 1 0 0
−1 3 −2 0 1 0 −→ 0 1 −2 1 1 0 −→
−1 2 −1 0 0 1 0 0 −1 1 0 1
1
1 −2 0 1 0 0 1 0 0 −1 2 −4
0 1 0 −1 1 −2 −→ 0 1 0 −1 1 −2 ,
0 0 −1 1 0 1 0 0 1 −1 0 −1
−1 2 −4
2 also A−1 = −1 1 −2. Per Probe-Multiplikation prüft man leicht A·A−1 =
−1 0 −1
3 A−1 · A = I3 nach. /
n×n
4 Für zwei invertierbare Matrizen A, B ∈ K ist auch A · B invertierbar,
5 die Inverse ist
6 (A · B)−1 = B −1 A−1 .
7 Außerdem ist A−1 invertierbar. Es folgt, dass die Menge
9 eine Gruppe bildet. Sie heißt die allgemeine lineare Gruppe. Für n ≥ 2
10 ist GLn (K) nicht abelsch.
11
12 Für den Rest des Abschnitts beschäftigen wir uns mit dem Thema Basis-
13 wechsel.
14 Wir wissen, dass Vektorräume verschiedene Basen haben. Was passiert
15 mit der Darstellungsmatrix einer linearen Abbildung V → V , wenn man die
16 Basis von V wechselt?
17 Es sei B = {v1 , . . . , vn } eine Basis von V , und B 0 = {v10 , . . . , vn0 } sei eine
18 weitere Basis. Wir können die neuen“ Basisvektoren vj0 mit Hilfe der alten
”
19 ausdrücken:
n
X
20 vj0 = ai,j vi (12.3)
i=1
21 mit ai,j ∈ K. Hieraus können wir die Matrix S := (ai,j ) ∈ K n×n bilden.
22 S heißt die Basiswechselmatrix. Sie beschreibt den Übergang von B zu
23 B 0 . Man schreibt bisweilen S =: SB,B 0 . (Für diese Schreibweise gilt das in
24 Anmerkung 12.2(a) Gesagte.) Die Basiswechselmatrix wird nach folgender
25 Merkregel gebildet:
27 Man kann auch umgekehrt die vj mit Hilfe der vi0 ausdrücken und erhält so
28 die Basiswechselmatrix SB 0 ,B .
29 Proposition 12.10. Die Basiswechselmatrix ist invertierbar, und es gilt
Darstellungsmatrizen und Matrixprodukt 101
−1
1 SB,B 0 = SB 0 ,B .
2 Beweis. Vorbemerkung: Dass es unüblich ist, bei der Bildung der Darstel-
3 lungsmetrix einer linearen Selbstabbildung zwei verschiedene Basen zu be-
4 nutzen, heißt nicht, dass es verboten ist. Genau das tun wir in diesem Beweis.
5 Ein Blick auf die Definitionen der Basiswechselmatrix und der Darstel-
6 lungsmatrix zeigt nämlich, dass
8 gilt. Aus Satz 12.8 folgt nun SB,B 0 SB 0 ,B = DB,B (idV ◦ idV ) = In . t
u
| {z }
=idV
−1
16 DC 0 ,B 0 (ϕ) = SC 0 ,C · DC,B (ϕ) · SB,B 0 = SC,C 0 · DC,B (ϕ) · SB,B 0 .
Beweis. Die erste Gleichheit ergibt sich mit (12.4) und Satz 12.8 durch
23 DB 0 (ϕ) = S −1 · DB (ϕ) · S.
24 Wir nehmen die letzten beiden Resultate (und die Bemerkung, dass jede
25 invertierbare Matrix einen Basiswechsel vermittelt) zum Anlass für folgende
26 Definition:
27 Definition 12.13. (a) Zwei quadratische Matrizen A, B ∈ K n×n heißen
28 ähnlich, falls es S ∈ GLn (K) gibt mit
102 Diskrete Strukturen: Lineare Codes
1 B = S −1 AS.
4 B = T −1 AS.
34. Vorlesung,
5 Wie man sich leicht überlegt, sind Ähnlichkeit und Äquivalenz Äquivalenz-
y 30.01.2019 6 relationen. Von diesen beiden Begriffen ist die Ähnlichkeit der wichtigere.
7 Das folgende Beispiel soll einen Hinweis darauf geben, weshalb ein Basis-
8 wechsel nützlich sein kann.
x y
9 Beispiel 12.14. Es seien V = R2 und ϕ: V → V, 7→ . Mit der
y x
10 Standardbasis B = {e1 , e2 } haben wir
01
11 DB (ϕ) = .
10
1 1
12 Als neue Basis wählen wir B 0 = { , }. Die Basiswechselmatrix und
1 −1
13 ihre Inverse sind
1 1 −1 1 1 1
14 S = SB,B 0 = und S = .
1 −1 2 1 −1
15 Es ergibt sich
1 1 1 01 1 1 1 1 1 1 −1 1 0
16 D (ϕ) =
B0 · · = · = .
2 1 −1 10 1 −1 2 1 −1 1 1 0 −1
20 In diesem Abschnitt werden die bisher erarbeiteten Konzepte auf die Da-
21 tenübertragung über einen nicht perfekten Kanal angewandt. Wir stellen uns
22 vor, dass nacheinander Bits x1 , x2 , x3 , . . . über einen Kanal gesendet (oder
23 auf einem Datenträger gespeichert) werden. Hierbei sind Fehler möglich: Mit
24 einer gewissen Wahrscheinlichkeit (etwa p = 10−6 ) wird ein Bit fehlerhaft
25 übertragen bzw. gespeichert. Um trotzdem die korrekten Daten rekonstruie-
26 ren zu können, oder um zumindest mit großer Wahrscheinlichkeit auf einen
27 Fehler aufmerksam zu werden, schickt man die Daten mit einer gewissen
28 Redundanz.
Diskrete Strukturen: Lineare Codes 103
1 Die naivste Idee ist hierbei das Wiederholen: Alle Daten werden zweimal
2 gesendet (oder 3,4, . . . mal). Bei Einteilung in Viererblocks wird also statt
3 (x1 , x2 , x3 , x4 ) das Wort“ (x1 , x2 , x3 , x4 , x1 , x2 , x3 , x4 ) gesendet.
”
4 Als allgemeinen Rahmen wollen wir die folgende Situation betrachten: Ein
5 Bit wird als ein Element des Körpers K = F2 (= Z/2Z) modelliert. Wir
6 können jedoch auch Elemente eines anderen (endlichen) Körpers K betrach-
7 ten. Der zu sendende Bit-Strom wird in Blocks der Länge k zerlegt, z.B.
8 k = 4. Statt (x1 , . . . , xk ) ∈ K k wird (c1 , . . . , cn ) ∈ K n gesendet (bzw. gespei-
9 chert). Hierbei gibt es eine Zuordnung (x1 , . . . , xk ) 7→ (c1 , . . . , cn ). Diese ist
10 häufig linear, d.h. gegeben durch eine Matrix G ∈ K n×k , also:
c1 x1
.. ..
11 . = G · . .
cn xk
12 (Man beachte, dass wir hier je nach Bequemlichkeit Zeilen- und Spalten-
13 vektoren schreiben.) Der gesendete Vektor (c1 , . . . , cn ) heißt Codewort, und
14 (x1 , . . . , xk ) heißt Informationswort. G heißt Generatormatrix. Die Men-
15 ge
x1 x1
.. ..
n o
16 C := G · . . ∈ K k
xk xk
17 aller Codewörter bildet einen Unterraum des K n . Eine solche Datenübertra-
18 gung ist nur sinnvoll, wenn die Zuordnung des Codeworts zu einem Datenwort
19 injektiv ist. Das inhomogene LGS G · x = c muss also für alle c ∈ C eindeutig
20 lösbar sein, also rg(G) = k. Aus unserem Test auf lineare Unabhängigkeit auf
21 Seite 81 folgt, dass die Spalten von G linear unabhängig sind. Diese Spalten
22 erzeugen C, also folgt
23 dim(C) = k.
24 Ausgehend von dieser Situation machen wir folgende Definition:
25 Definition 13.1. Ein linearer Code ist ein Unterraum C ⊆ K n . Mit k :=
26 dim(C) bezeichnen wir C auch als einen (n, k)-Code. Die Länge von C ist n.
27 Die Informationsrate ist k/n, die Redundanz ist n − k.
28 Bei der Definition fällt auf, dass die Abbildung K k → K n nicht in die De-
29 finition des Codes aufgenommen wird. Für die meisten Fragestellungen der
30 Codierungstheorie ist diese nämlich unerheblich. Als Generatormatrix eines
31 Codes C kann man jede Matrix nehmen, deren Spalten eine Basis von C bil-
32 den. Wir bemerken noch, dass bisweilen auch nicht-lineare Codes betrachtet
33 werden.
34 Beispiel 13.2. (1) Die Generatormatrix
104 Diskrete Strukturen: Lineare Codes
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
1 G :=
1
0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
2 liefert den Wiederholungscode, bei dem alles einmal wiederholt wird. Dies
3 ist ein (8,4)-Code, die Informationsrate ist also 1/2. Falls bei der Übert-
4 ragung höchstens ein Fehler auftritt, wird dies beim Empfang festgestellt.
5 Der Fehler kann jedoch nicht korrigiert werden. Man spricht von einem
6 1-fehlererkennenden Code.
7 (2) Der sogenannte Parity-Check-Code ist gegeben durch die Generatorma-
8 trix
1000
0 1 0 0
9
0 0 1 0 .
G :=
0 0 0 1
1111
10 Als Abbildung kann man ihn als (x1 , . . . , x4 ) 7→ (x1 , . . . , x4 , x1 +x2 +x3 +
11 x4 ) definieren. Dies ist ein (5,4)-Code. Falls einer oder 3 Fehler auftreten,
12 wird dies erkannt. Also ist auch dieser Code 1-fehlererkennend. Aber seine
13 Informationsrate ist mit 4/5 höher als die des Wiederholungscodes. Der
14 Parity-Check-Code ist wohl eine der ältesten Ideen der Informatik.
15 (3) Es ist auch möglich, jedes Informationswort dreimal zu senden. Der ent-
16 sprechende Code hat die Generatormatrix
I4
17 G = I4 ∈ K 12×4 .
I4
18 Dies ist ein (12,4)-Code. Falls höchstens ein Fehler auftritt, kann man die-
19 sen nach Empfang korrigieren. Man spricht von einem 1-fehlerkorrigierenden
20 Code. /
21 Das Dekodieren läuft folgendermaßen ab: Das empfangene Wort c0 =
22 (c01 , . . . , c0n )
kann sich von dem gesendeten Wort c durch Übertragungsfehler
23 unterscheiden. Falls c0 ein Codewort ist, also c0 ∈ C, so wird c = c0 angenom-
24 men, denn dann ist der wahrscheinlichste Fall, dass kein Fehler auftrat. In
25 diesem Fall wird durch das Auflösen des LGS G · x = c0 das (wahrscheinliche)
26 Informationswort x ∈ K k ermittelt. Interessanter ist der Fall c0 ∈
/ C. Es wird
27 (wieder) mit der Annahme gearbeitet, dass die Anzahl der Fehlerbits mit
28 hoher Wahrscheinlichkeit klein ist. Also sucht man ein Codewort c00 ∈ C, das
29 sich von c0 an möglichst wenig Koordinaten unterscheidet. Falls es genau ein
Diskrete Strukturen: Lineare Codes 105
1 solches c00 gibt, wird c = c00 angenommen und x ∈ K k mit G · x = c00 ausge-
2 geben. Andernfalls wird eine Fehlermeldung ausgegeben: dann ist sinnvolles
3 Dekodieren nicht möglich. Die Güte eines Codes entscheidet sich darin, dass
4 dieser Fall möglichst vermieden wird, und dass korrektes Dekodieren (c00 = c)
5 mit möglichst hoher Wahrscheinlichkeit passiert.
6 Definition 13.3. Für c = (c1 , . . . , cn ) ∈ K n ist
n o
w(c) := i ∈ {1, . . . , n} ci 6= 0
7
10 der Hamming-Abstand von c und c0 . (Nebenbei: Dies ist eine Metrik auf
11 K n .) Für eine Teilmenge C ⊆ K n ist
n o
d(C) := min d(c, c0 ) c, c0 ∈ C, c 6= c0
12
33 c∈C ⇐⇒ P · c = 0.
0 0 0 −1 0 0 0 1
11 P · c0 = P · (c + f ) = 0 + P · f = P · f.
12 Der Vektor P · c0 ∈ K n−k heißt das Syndrom von c0 . Es misst, wie weit c0
13 von einem Codewort abweicht. Nach obiger Gleichung haben empfangenes
14 Wort und Fehlervektor das gleiche Syndrom. Das Dekodieren kann nun so
15 geschehen: Man berechnet das Syndrom P · c0 . Nun sucht man ein f ∈ K n ,
16 welches unter allen f 0 ∈ K n mit P · f 0 = P · c0 minimales Hamming-Gewicht
17 hat. Falls c0 ∈ C, so ergibt sich automatisch f = 0. Falls es ein eindeutig
18 bestimmtes solches f gibt, setzt man c00 := c0 − f ∈ C und gibt x ∈ K k mit
19 G · x = c00 aus. Falls es kein eindeutiges f gibt, gibt man eine Fehlermeldung
20 aus. Dies entspricht genau dem oben beschriebenen Dekodierungsverfahren.
21 Da es nur |K|n−k mögliche Syndrome gibt, kann man das f (oder Fehlermel-
22 dung) zu jedem Syndrom in einer Tabelle speichern. Oft gibt es noch bessere
23 Methoden zur Ermittlung von f . Dies ist in folgendem Beispiel der Fall.
24 Der (7,4)-Hamming-Code
17 d(C) = 3.
34 Der Bauer-Code
1 (x1 , . . . , x4 ) 7→ (x1 , x2 , x3 , x4 , x2 +x3 +x4 , x1 +x3 +x4 , x1 +x2 +x4 , x1 +x2 +x3 ).
10 14 Faktorräume
36. Vorlesung,
y 06.02.2019
11 In diesem Abschnitt übertragen wir das Prinzip von Restklassenringen (siehe
12 Satz 7.4) auf Vektorräume. Der folgende Satz ist zugleich auch eine Definition.
13 Satz 14.1. Es seien V ein K-Vektorraum und U ⊆ V ein Unterraum.
14 (a) Auf V wird eine Äquivalenzrelation definiert durch
15 v∼w :⇐⇒ v − w ∈ U.
17 [v]∼ = {v + u | u ∈ U } =: v + U ⊆ V.
18 Teilmengen von V von der Gestalt v + U nennt man auch affine Un-
19 terräume
20 (c) Die Faktormenge
21 V /U := {v + U | v ∈ V }
22 wird durch folgende Definitionen zu einem K-Vektorraum: Für C1 , C2 ∈
23 V /U und a ∈ K wählen wir v ∈ C1 und w ∈ C2 und setzen
24 C1 + C2 := (v + w) + U und a · C1 = av + U.
2 u − w = u − v + v − w ∈ U,
5 w ∈ [v]∼ ⇐⇒ ∃ u ∈ U: w − v = u ⇐⇒ w ∈ v + U.
6 (c) Der wichtigste Schritt ist der Nachweis der Wohldefiniertheit, d.h. der
7 Unabhängigkeit der Definitionen von der Wahl der Vertreter v und w. Es
8 seien also v 0 , w0 ∈ V mit v 0 ∼ v und w0 ∼ w. Dann folgt
17 also Kern(π) = U .
18 (e) Dies folgt aus (d) und Satz 11.9 t
u
19 Beispiel 14.2. (1) In V = R2 sei U ⊆ V eine Gerade durch den Nullpunkt.
20 Dann ist V /U die Menge aller Geraden, die parallel zu U sind (aber nicht
21 durch den Nullpunkt laufen müssen).
22 (2) Für U = {0} ist V /U = {{v} | v ∈ V }. In diesem Fall ist π ein Isomor-
23 phismus, also V /{0} ∼
=V.
24 (3) Für U = V ist V /U = {V } der Nullraum.
25 /
26 Als Anwendung des Faktorraums beweisen wir den folgenden Satz.
27 Satz 14.3 (Dimensionssatz für Unterräume). Es seien U, W ⊆ V Unterräume
28 eines K-Vektorraums. Dann gilt
31 ϕ: W → V /U, w 7→ w + U.
3 Durch Addition von dim(U ) auf beiden Seiten der Gleichung und Anwendung
4 von Satz 14.1(e) ergibt sich die Behauptung. t
u
5 Beispiel 14.4. Es seien U und W zwei zwei-dimensionale Unterräume (= Ebe-
6 nen) von V = K 3 . Dann gilt
9 15 Direkte Summen
17 v1 + · · · + v n = 0 =⇒ v1 = · · · = vn = 0.
X
10 vi = vj mit vj ∈ Uj ,
j6=i
24 Die Summe U1 + U2 ist also direkt, und wir können sie als U1 ⊕ U2
25 schreiben.
26 (3) Ist {v1 , . . . , vn } eine Basis von V , so folgt
27 V = hv1 i ⊕ · · · ⊕ hvn i.
1 ϕ: W → V /U, w 7→ w + U
2 ein Isomorphismus, denn Bild(ϕ) = (W + U )/U = V /U und Kern(ϕ) =
3 W ∩ U = {0}. Also gilt W ∼ = V /U .
Ln
4 Satz 15.4. Für eine direkte Summe W := i=1 Ui von Unterräumen Ui ⊆
5 V gilt
n
X
6 dim(W ) = dim(Ui ).
i=1
14 In Beispiel 15.3(1) sieht man, dass die Direktheit der Summe für die Gültig-
15 keit von Satz 15.4 erforderlich ist.
16 Satz 15.5. Jeder Unterraum U ⊆ V besitzt ein Komplement.
17 Beweis. Es sei A eine Basis von U . Nach dem Basisergänzungssatz (Satz 10.6)
18 gibt es eine Basis B von V mit A ⊆ B. Wir setzen C := B \ A, W = hCi und
19 behaupten, dass W ein Komplement von U ist.
20 Für den Nachweis von U + W = V sei v ∈ V . Dann gibt es v1 , . . . , vn ∈ A,
21 w1 , . . . , wm ∈ C und ai , bi ∈ K, so dass
n
X m
X
22 v= ai v i + bi wi ∈ U + W.
i=1 i=1
1 Anmerkung. Man kann den Beweis von Satz 15.5 auch direkt mit dem
2 Zornschen Lemma führen, indem man die Menge aller Unterräume W ⊆ V
3 mit U ∩ W = {0} betrachtet. /
1 Lineare Algebra: Normalformen
38. Vorlesung,
y 24.04.2019
2 Das übergreifende Thema dieses Kapitels ist, für eine gegebene lineare Ab-
3 bildung ϕ: V → V eines endlich-dimensionalen Vektorraums eine Basis B zu
4 finden, so dass die Darstellungsmatrix DB (ϕ) möglichst übersichtlich wird.
5 Wegen Korollar 12.12 ist dies gleichbedeutend damit, zu einer gegebenen Ma-
6 trix A ∈ K n×n eine zu A ähnliche Matrix B zu finden (siehe Definition 12.13),
7 die eine einfache Gestalt hat. In jeder Ähnlichkeitsklasse werden wir einen
8 solch einfachen Vertreter B finden und diesen dann eine Normalform von A
9 nennen.
10 Wir beginnen mit dem Begriff der Determinante, der bei weitem nicht nur
11 für die Thematik der Normalformen von Bedeutung ist. Danach kommen wir
12 zu den Eigenwerten und dem Begriff der Diagonalisierbarkeit. Den eigent-
13 lichen Normalformen werden wir uns nähern, indem wir zunächst Matrizen
14 über Z und über dem Polynomring K[x] behandeln.
15 16 Determinanten
16 Bevor wir die Determinante definieren, müssen wir uns mit der symmetri-
17 schen Gruppe beschäftigen. Zur Erinnerung: Für n ∈ N>0 ist die symme-
18 trische Gruppe definiert als
20 Die Elemente von Sn heißen Permutationen, und die Verknüpfung ist durch
21 die Komposition gegeben.
22 Definition 16.1. Für σ ∈ Sn definieren wir
116 Determinanten
1 • w(σ) als die Anzahl der Paare (i, j) ∈ N × N mit 1 ≤ i < j ≤ n aber
2 σ(i) > σ(j) (solche Paare nennt man auch Fehlstellen);
3 • sgn(σ) := (−1)w(σ) , das Vorzeichen von σ.
4 Beispiel 16.2. (1) Die Identität id ∈ Sn hat keine Fehlstellen, also sgn(id) =
5 1.
6 (2) Es sei σ = (1, 2) ∈ Sn (also σ(1) = 2, σ(2) = 1 und σ(i) = i für i > 2).
7 Offenbar ist (1, 2) die einzige Fehlstelle von σ, also sgn(σ) = −1.
8 (3) Es seien 1 ≤ i < j ≤ n, und σ = (i, j) ∈ Sn (d.h. σ vertauscht i und j und
9 lässt alle anderen Elemente von {1, . . . , n} fest). Eine solche Permutation
10 nennt man auch eine Transposition. Wir zählen Fehlstellen und kommen
11 auf w(σ) = 2(j − i) − 1, also sgn(σ) = −1. /
12 Die wichtigste Eigenschaft des Vorzeichens ist seine Multiplikativität:
13 Satz 16.3. Für σ, τ ∈ Sn gilt
19 Um dies einzusehen bemerken wir, dass Zähler und Nenner des Produkts bis
20 auf das Vorzeichen übereinstimmen. Im Zähler tritt aber genau w(σ) mal ein
21 xk − xl mit k > l auf, während dies im Nenner nie vorkommt. Hieraus ergibt
22 sich (16.1).
23 Nun setzen wir yi := xσ(i) . Ebenso wie die xi sind auch die yi paarweise
24 verschieden, also gilt wegen (16.1) für alle τ ∈ Sn
Y yτ (i) − yτ (j) Y xστ (i) − xστ (j)
25 sgn(τ ) = = . (16.2)
yi − yj xσ(i) − xσ(j)
1≤i<j≤n 1≤i<j≤n
Wir erhalten
Y xστ (i) − xστ (j)
sgn(στ ) = =
xi − xj
1≤i<j≤n
Y xστ (i) − xστ (j) Y xσ(i) − xσ(j)
· = sgn(τ ) sgn(σ).
xσ(i) − xσ(j) xi − xj (16.2)
1≤i<j≤n 1≤i<j≤n
26 t
u
27 Nun können wir die Determinante einer quadratischen Matrix definieren.
28 Ab jetzt sei K ein Körper.
Determinanten 117
4 Die Definition lässt sich erweitern für den Fall, dass A Einträge in einem
5 kommutativen Ring hat.
6 Beispiel 16.5. Für n ≤ 3 machen wir Definition 16.4 explizit.
7 (1) Für n = 1 ist A = (a) und
8 det(A) = a.
(3) Für n = 3 hat die Sn sechs Elemente: die Identität, die drei Transpositio-
nen (1, 2), (1, 3) und (2, 3), sowie die zyklischen“ Permutationen (1, 2, 3)
”
und (3, 2, 1) (siehe Beispiel 6.5(2)). Die zyklischen Permutationen haben
Vorzeichen 1. Wir erhalten
a1,1 a1,2 a1,3
det a2,1 a2,2 a2,3 = a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2
a3,1 a3,2 a3,3
− a1,2 a2,1 a3,3 − a1,3 a2,2 a3,1 − a1,1 a2,3 a3,2 .
14 Der Zusammenhang zwischen der obigen Formel und der Graphik dürfte
15 selbsterklärend sein.
16 (4) Für die Einheitsmatrix In gilt: det(In ) = 1. /
17 Nun entwickeln wir die Theorie der Determinante.
18 Lemma 16.6. Sei A = (ai,j ) ∈ K n×n .
19 (a) det(AT ) = det(A) (transponierte Matrix).
20 (b) Es sei σ ∈ Sn . Wir definieren bi,j := ai,σ(j) und B := (bi,j ) ∈ K n×n (d.h.
21 B geht aus A durch Permutation der Spalten gemäß σ hervor). Dann gilt
118 Determinanten
4 det(A) = 0.
X n
Y X n
Y
det(AT ) = sgn(σ) · aσ(i),i = sgn(σ) · aj,σ−1 (j)
σ∈Sn i=1 σ∈Sn j=1
X n
Y
= sgn(τ −1 ) · aj,τ (j) = det(A).
τ ∈Sn j=1
X n
Y X n
Y
det(B) = sgn(τ ) · bi,τ (i) = sgn(τ ) · ai,στ (i)
τ ∈Sn i=1 τ ∈Sn i=1
X n
Y
= sgn(σ −1 ρ) · ai,ρ(i) = sgn(σ −1 ) · det(A),
ρ∈Sn i=1
5 wobei Satz 16.3 für die letzte Gleichheit benutzt wurde. Satz 16.3 liefert
6 auch sgn(σ −1 ) = sgn(σ), also folgt die Behauptung.
7 Die entsprechende Aussage für Zeilenpermutationen lässt sich durch (a)
8 auf die für Spaltenpermutationen zurückführen.
9 (c) Wegen (a) ist det(A) = 0 nur für den Fall zweier gleicher Spalten nach-
10 zuweisen. Wir nehmen also an, dass es 1 ≤ j < k ≤ n gibt, so dass
11 ai,j = ai,k für alle i gilt. Es sei τ = (j, k) ∈ Sn die Transposition, die j
12 und k vertauscht (siehe Beispiel 16.2(3)). Für alle i, l ∈ {1, . . . , n} gilt
13 dann
14 ai,l = ai,τ (l) . (16.3)
15 Aus (b) folgt det(A) = sgn(τ ) det(A) = − det(A). Im Fall char(K) 6= 2
16 liefert dies die Behauptung det(A) = 0. Da wir aber auch den Fall
17 char(K) = 2 mitnehmen möchten, müssen wir etwas mehr Aufwand be-
18 treiben. Wir definieren
19 An := {σ ∈ Sn | sgn(σ) = 1}.
20 (Nebenbei gesagt folgt aus Satz 16.3, dass An eine Untergruppe der Sn
21 ist; sie heißt die alternierende Gruppe.) Wegen sgn(τ ) = −1 folgt aus
22 Satz 16.3, dass Sn die disjunkte Vereinigung von An und τ An := {τ σ |
23 σ ∈ An } ist: .
24 Sn = An ∪ τ An .
Determinanten 119
(Hiermit ist die Vereinigungsmenge gemeint, wobei der Schnitt der beiden
vereinigten Mengen leer ist; dies wird durch den Punkt ausgedrückt.) Nun
folgt
n n
!
X Y Y
det(A) = sgn(σ) · ai,σ(i) + sgn(τ σ) · ai,τ σ(i)
σ∈An i=1 i=1
n n
!
X Y Y
= sgn(σ) · ai,σ(i) − ai,τ (σ(i)) = 0,
σ∈An i=1 i=1
X n
X n
Y
det(A · B) = sgn(σ) · ai,ki bki ,σ(i)
σ∈Sn k1 ,...,kn =1 i=1
n
X X Yn n
Y
= sgn(σ) · ai,ki · bki ,σ(i) =
k1 ,...,kn =1 σ∈Sn i=1 i=1
n
X n
Y
ai,ki · det(bkj ,l )j,l=1,...,n . (16.4)
k1 ,...,kn =1 i=1
Wegen Lemma 16.6(c) ist det(bkj ,l )j,l=1,...,n nur dann 6= 0, wenn die kj paar-
weise verschieden sind, d.h. wenn die Abbildung {1, . . . , n} → {1, . . . , n},
j 7→ kj eine Permutation ist. Statt über die k1 , . . . , kn zu summieren, können
wir also auch über die Permutationen τ ∈ Sn summieren und erhalten
120 Determinanten
n
X Y
det(A · B) = ai,τ (i) · det(bτ (j),l )j,l=1,...,n
τ ∈Sn i=1
n
X Y
= ai,τ (i) · sgn(τ ) · det(B) = det(A) · det(B),
τ ∈Sn i=1
12 Die Berechnung der Determinante gemäß Formel (16.5) wird als Entwick-
13 lung nach der i-ten Zeile bezeichnet, und gemäß (16.6) als Entwicklung nach
14 der j-ten Spalte. Man kann eine dieser Formeln anwenden und dabei i bzw. j
15 nach Opportunitätsgesichtspunkten auswählen.
16 Beispiel 16.9. Wir möchten die Determinante von
012
17 A = 3 4 5
678
berechnen und entscheiden uns für Entwicklung nach der ersten Zeile. Es
ergibt sich
45 35 34
det(A) = 0 · det − 1 · det + 2 · det
78 68 67
= −(3 · 8 − 6 · 5) + 2 · (3 · 7 − 6 · 4) = 6 − 6 = 0.
18 /
Beweis von Satz 16.8. Wegen Lemma 16.6(a) genügt es, die Gleichung (16.5)
nachzuweisen. Für i ∈ {1, . . . , n} gilt
Determinanten 121
X n
Y
det(A) = sgn(σ) · ak,σ(k)
σ∈Sn k=1
Xn X Y
= sgn(σ) · ak,σ(k) · ai,j .
j=1 σ∈Sn k∈{1,...,n}
mit σ(i)=j mit k6=i
1 Mit X Y
2 ci,j := sgn(σ) · ak,σ(k)
σ∈Sn k∈{1,...,n}
mit σ(i)=j mit k6=i
3 ist also ci,j = (−1)i+j det(Ai,j ) zu zeigen. Wir benutzen die beiden speziellen
4 Permutationen
7 bk,l := aη(k),ρ(l)
8 gilt
9 Ai,j = (bk,l )k,l=1,...,n−1 .
10 Außerdem gilt für σ ∈ Sn die Äquivalenz
X n−1
Y
15 ci,j = sgn(ρ) sgn(η −1 ) · sgn(τ ) · aη(l),(ρτ )(l) = (−1)i+j det(Ai,j ).
τ ∈Sn−1 l=1
| {z }
=bl,τ (l)
9 wobei für die letzte Gleichheit (16.5) verwendet wurde. Nun sei k ∈ {1, . . . , n}
10 mit k 6= i, und A0 ∈ K n×n sei die Matrix, die aus A durch Weglassen der k-
11 ten Zeile und durch Verdoppeln (zweimal untereinander schreiben) der i-ten
12 Zeile entsteht. Der (i, k)-te Eintrag von A · C ist
n
X n
X n
X
13 ai,j cj,k = (−1)i+j ai,j det(Ak,j ) = (−1)i+j ai,j det(A0i,j ) = det(A0 ).
j=1 j=1 j=1
21 det(A−1 ) = 1/ det(A)
22 und
1
23 A−1 = · C, (16.7)
det(A)
24 wobei C für die adjunkte Matrix steht.
25 Beweis. Falls A invertierbar ist, folgt nach Satz 16.7 und Beispiel 16.5(4)
1
1 · C · A = In ,
det(A)
30 det(A) = det(B).
31 Beweis. Wir haben B = S −1 AS mit S ∈ GLn (K). Wegen der Sätze 16.7
32 und 16.12 folgt
34 t
u
124 Determinanten
5 definieren. Denn bei einer anderen Basiswahl geht DB (ϕ) nach Korollar 12.12
6 über in eine ähnliche Matrix.
7 Definition 16.16. Die Menge
9 heißt die spezielle lineare Gruppe. Aus Satz 16.7 folgt, dass SLn (K) eine
10 Untergruppe der GLn (K) ist, womit SLn (K) selbst eine Gruppe ist.
11 Nur quadratische Matrizen haben Determinanten. Bei beliebigen Matrizen
12 A ∈ K m×n kann man sogenannte Minoren (auch: Unterdeterminanten) be-
13 trachten. Für r ≤ min{m, n} wird ein r × r-Minor von A durch eine Auswahl
14 von r Zeilen und r Spalten von A gebildet, wodurch eine r×r-Matrix entsteht.
15 Der Minor ist die Determinante dieser Matrix. Es gibt also im Allgemeinen
16 eine ganze Menge Minoren. Beispielsweise ist die Anzahl der 2 × 2-Minoren
17 einer 3 × 4-Matrix 3 · 6 = 18. Die 1 × 1-Minoren sind einfach die Einträge
18 einer Matrix. Mit Hilfe von Korollar 11.10 und Satz 16.12 kann man zeigen,
19 dass das maximale r, für dass es einen r × r-Minor 6= 0 gibt, der Rang der
20 Matrix ist.
21 Nun beschäftigen wir uns mit dem effizienten Berechnen der Determinante.
22 Die Definition 16.4 ist explizit, so dass eine direkte Berechnung möglich ist.
23 Sie erfordert jedoch wegen |Sn | = n! etwa n · n! Körperoperationen, ein für
24 große n nicht hinnehmbarer Aufwand. Wir werden ein besseres Verfahren
25 entwickeln.
26 Wir können schon jetzt die Determinante einiger spezieller Matrizen im
27 Eilverfahren“ berechnen. Wir führen drei Fälle an. Begründen kann man die
”
28 Ergebnisse jeweils entweder durch Entwicklung nach einer Zeile oder Spalte,
29 oder indem man direkt mit Definition 16.4 arbeitet.
30 (1) Für eine Diagonalmatrix
a1 0
A = ...
31
0 an
32 gilt
33 det(A) = a1 · · · an .
34 Man schreibt Diagonalmatrizen wie oben auch als
35 A = diag(a1 , . . . , an ).
Determinanten 125
3 gilt
4 det(A) = a1 · · · an . (16.9)
5 Zur Erklärung: (16.8) soll andeuten, dass oberhalb der Diagonalen ir-
6 gendwelche Einträge stehen können, unterhalb aber lauter Nullen. Man
7 könnte eine obere Dreiecksmatrix A = (ai,j ) ∈ K n×n auch formaler durch
8 die Bedingung ai,j = 0 für i > j definieren.
9 Dasselbe Ergebnis (16.9) gilt auch für untere Dreiecksmatrizen.
10 (3) Für eine Matrix
B 0
11 A=
CD
12 mit B ∈ K l×l , D ∈ K (n−l)×(n−l) und C ∈ K (n−l)×l gilt
14 Man sagt auch, dass A Block-Dreiecksgestalt hat. Dies lässt sich erweitern
15 auf Matrizen mit mehr als zwei Diagonal-Blöcken.
16 Nun wenden wir uns dem Berechnen der Determinante einer Matrix, die
17 keine spezielle Gestalt hat, zu. Ziel ist es, auch hierfür den Gauß-Algorithmus
18 einzusetzen. Wir müssen uns also überlegen, welche Auswirkungen elementa-
19 re Zeilenoperationen auf die Determinante haben. Bei Operationen von Typ I
20 (Vertauschen zweier Zeilen) geht die Antwort aus Lemma 16.6(b) hervor:
21 Die Determinante ändert das Vorzeichen. Für Operationen vom Typ II und
22 (wichtiger!) vom Typ III ist es zweckdienlich, diese als Links-Multiplikation
23 mit gewissen Matrizen zu interpretieren: Multiplikation der i-ten Zeile von A
24 mit einem Skalar a 6= 0 entspricht der Multiplikation von A mit der Matrix
25 S = diag(1, . . . , 1, a, 1, . . . , 1),
26 wobei a der i-te Eintrag ist; also A → S ·A. Wegen Satz 16.7 und der Regel (1)
27 ergibt sich, dass sich bei einer Operation von Typ II die Determinante mit a
28 multipliziert.
29 Um Operationen von Typ III zu behandeln, betrachten wir Matrizen Ei,j ∈
30 K n×n , die per Definition überall Nullen haben außer im (i, j)-ten Eintrag,
31 der 1 ist. Nun sieht man leicht, dass Addition des a-fachen der j-ten Zeile
32 zu der i-ten Zeile einer Multiplikation mit In + a · Ei,j von links entspricht:
33 A → (In + a · Ei,j ) · A. Da In + a · Ei,j eine Dreiecksmatrix ist, folgt aus der
34 Regel (2), dass det(In + a · Ei,j ) = 1 ist, also ändert sich nach Satz 16.7 die
35 Determinante bei Operationen von Typ III nicht. Wir fassen zusammen:
126 Determinanten
6 Typ III (Addition des a-fachen einer Zeile zu einer anderen): Die Deter-
7 minante ändert sich nicht.
4 17 Eigenwerte
9 Eλ := {v ∈ K n | A · v = λ · v}
14 ϕ(v) = λ · v
15 definiert.
01
16 Beispiel 17.2. (1) Für A = ∈ R2×2 gilt
10
1 1
17 A· = ,
1 1
1
18 also ist 1 ein Eigenwert von A und ein zugehöriger Eigenvektor. Ein
1
19 weiterer Eigenwert ist −1, denn
1 −1 1
20 A· = =− .
−1 1 −1
E1 = v ∈ K 2 | A · v = v = v ∈ K 2 | (A − I2 ) · v = 0 ,
22
30 x · In − A ∈ K[x]n×n
32 χA := det(x · In − A) ∈ K[x]
1 Satz 17.5. Die Eigenwerte einer quadratischen Matrix A sind die Nullstel-
2 len des charakteristischen Polynoms χA .
01
3 Beispiel 17.6. (1) Für A = ∈ R2×2 gilt
10
x −1
4 χA = det = x2 − 1,
−1 x
12 1 ≤ mg (λ) ≤ ma (λ).
13 Beweis. Die erste Ungleichung ist klar, denn für einen Eigenwert gilt Eλ 6=
14 {0}, also dim (Eλ ) ≥ 1.
15 Zur Beweis der zweiten Ungleichung setzen wir m := mg (λ) und wählen
16 eine Basis {v1 , . . . , vm } von Eλ . Diese können wir zu einer Basis B =
17 {v1 , . . . , vn } von K n ergänzen. Für 1 ≤ i ≤ m gilt
18 ϕA (vi ) = A · vi = λ · vi ,
27 χA = (x − λ)m · χC .
Eigenwerte 131
1 Also ist χA durch (x − λ)m teilbar, und wir schließen ma (λ) ≥ m, wie be-
2 hauptet. t
u
3 Definition 17.11. Eine quadratische Matrix A ∈ K n×n heißt diagonali-
4 sierbar, falls es eine Basis von K n bestehend aus Eigenvektoren von A gibt.
5 Gleichbedeutend: A ist ähnlich zu einer Diagonalmatrix.
6 Ebenso kann man von der Diagonalisierbarkeit einer linearen Abbildung
7 ϕ: V → V eines K-Vektorraums V sprechen.
01
8 Beispiel 17.12. (1) A = ∈ R2×2 ist diagonalisierbar (siehe Bei-
10
9 spiel 17.2).
0 1
10 (2) A = ∈ R2×2 ist nicht diagonalisierbar. Es fehlen Eigenwerte
−1 0
11 (sieheBeispiel
17.6(2)).
11
12 (3) A = ∈ R2×2 ist nicht diagonalisierbar. Es fehlen Eigenvektoren
01
13 (siehe Beispiel 17.9(2)). /
14 Wir werden folgendes Kriterium für Diagonalisierbarkeit beweisen. Es be-
15 sagt, dass die in Beispiel 17.12(2) und (3) aufgetretenen Hindernisse für die
16 Diagonalisierbarkeit tatsächlich die einzig möglichen Hindernisse sind.
17 Satz 17.13. Eine Matrix A ∈ K n×n ist genau dann diagonalisierbar, wenn
18 beide der folgenden Bedingungen erfüllt sind:
19 (a) Das charakteristische Polynom χA zerfällt in Linearfaktoren, also
r
Y
20 χA = (x − λi )ei
i=1
21 mit ei = ma (λi ).
22 (b) Für alle Eigenwerte λi gilt
23 mg (λi ) = ma (λi ).
1 Andererseits gilt !
r
X r
X
2 λ 1 vi = λ 1 · vi = 0.
i=1 i=1
5 Da (λi −λ1 )vi in Eλi liegt, liefert die Induktionsvoraussetzung (λi −λ1 )vi = 0
6 für i ∈ {2, . . . , r}. Wegen λi 6= λ1 folgt vi = 0 für i ∈ {2, . . . , r}. Nun folgt
7 auch v1 = −(v2 + · · · + vr ) = 0. t
u
8 Beweis von Satz 17.13. Zunächst nehmen wir an, dass A diagonalisierbar ist,
9 es gibt also eine Basis B von K n aus Eigenvektoren. Sind λ1 , . . . , λr die
10 Eigenwerte von A, so folgt mit Bi := B ∩ Eλi :
r
X r
X r
X
11 n = |B| = |Bi | ≤ mg (λi ) ≤ ma (λi ) ≤ deg(χA ) = n,
i=1 i=1 i=1
12 wobei die mittlere Ungleichung aus Satz 17.10 folgt und die letzte aus der
13 Definition der ma (λi ) als Vielfachheiten der Nullstellen von χA folgt. Es muss
14 also überall Gleichheit gelten, und es folgen (a) und (b).
15 Nun nehmen wir umgekehrt an, dass (a) und (b) gelten. Für i ∈ {1, . . . , r}
16 sei Bi eine Basis des Eigenraums Eλi . Wir setzen B := B1 ∪ · · · ∪ Br . Es
17 ist klar, dass B aus Eigenvektoren besteht. Aus Lemma 17.14 folgt, dass B
18 linear unabhängig ist. Außerdem gilt
r
X r
X r
X
19 |B| = |Bi | = mg (λi ) = ma (λi ) = deg(χA ) = n.
(b) (a)
i=1 i=1 i=1
20 Insgesamt folgt mit Korollar 10.15(a), dass B eine Basis von K n ist. t
u
21 Aus Satz 17.13 und Satz 17.10 erhalten wir ein Kriterium, das in vielen
22 Fällen bereits die Diagonalisierbarkeit einer Matrix garantiert.
23 Korollar 17.15. Es sei A ∈ K n×n . Falls χA in Linearfaktoren zerfällt und
24 nur Nullstellen der Vielfachheit 1 hat, so ist A diagonalisierbar.
Als Anwendung betrachten wir ein physikalisches Beispiel. Wir stellen uns
vor, dass zwei gleichschwere Massen mit identischen, masselosen Federn an
gegenüberliegenden Wänden verbunden sind, und dass zwischen den Mas-
sepunkten eine weitere, andersartige Feder befestigt ist. Man spricht auch
von gekoppelten Schwingern. Wenn x1 (t) und x2 (t) die Auslenkungen der
Massepunkte (gemessen ab er Ruhelage) zur Zeit t bezeichnen, so gelten die
Differentialgleichungen
Eigenwerte 133
1 wobei die Doppelpunkte wie üblich für die zweite Ableitung nach t stehen
2 und die positiven Konstanten a und b von den Federeigenschaften und dem
3 Gewicht der Massepunkte anhängen. In Matrixschreibweise:
ẍ1 −a − b b x
4 = · 1 .
ẍ2 b −a − b x2
| {z }
=:A
14 Die Diagonalisierung der Matrix hat also dazu geführt, dass wir zwei getrenn-
15 te Differentialgleichungen
√ für y1 und√y2 bekommen haben. Diese können wir
16 leicht lösen. Mit ω := a und ω e := a + 2b lautet die allgemeine Lösung
y1 (t) c1 cos(ωt) + c2 sin(ωt)
17 =
y2 (t) c3 cos(e
ω t) + c4 sin(e
ω t)
cos ωe −ω ω
e +ω
3
x1 (t)
=2 2 · t · sin 2 ·t
x2 (t) − sin ωe −ω
2 · t · cos
ωe +ω
2 ·t
4 lautet. Diese beschreibt ein periodisches Übertragen der Schwingung von der
5 einen Masse zur anderen und zurück.
6 Bei der Definition von Polynomen war uns wichtig, Elemente eines größe-
7 ren Rings in Polynome einsetzen zu können. Nun werden wir Matrizen in
8 Polynome einsetzen.
0 1
9 Beispiel 17.16. Für A = und f = x2 + 1 gilt
−1 0
−1 0 10 00
10 f (A) = A2 + I2 = + = .
0 −1 01 00
11 /
12 Im obigen Beispiel haben wir eine Matrix in ihr eigenes charakteristische
13 Polynom eingesetzt, und heraus kam die Nullmatrix. Der folgende Satz sagt,
14 dass das kein Zufall war.
15 Satz 17.17 (Satz von Cayley-Hamilton). Für ein quadratische Matrix A ∈
16 K n×n gilt
17 χA (A) = 0.
18 Beweis. Wir schreiben A = (ai,j ) und setzen B := xIn −AT , also die Transpo-
19 nierte der charakteristischen Matrix. Von B können wir die adjunkte Matrix
20 C ∈ K[x]n×n bilden. Satz 16.11 liefert
21 C · B = det(B) · In = χA · In .
27 Nach Definition von B gilt bi,j (A) = δi,j · A − aj,i · In . Wir schreiben ej für
28 den j-ten Standardbasisvektor und erhalten
n
X n
X
29 bi,j (A)ej = A · ei − aj,i ej = 0. (17.2)
j=1 j=1
Die Smith-Normalform 135
4 18 Die Smith-Normalform
9 mit xi ∈ Z lösbar? Wie sieht die Lösungsmenge aus? Was ist die Lösungs-
10 menge für den Fall b = 0? Man kann das LGS in Matrixform als A · x = b
11 schreiben mit A ∈ Z2×3 . /
12 Die Fragestellungen als diesem Beispiel lassen sich mit der Smith-Normalform
13 der Matrix A beantworten. Um diese zu definieren, werden wir an den Begriff
14 der Äquivalenz von Matrizen (siehe Definition 12.13(b)) auf Matrizen über
15 beliebigen Ringen ausweiten.
16 Definition 18.2. Es sei R ein kommutativer Ring.
17 (a) Eine quadratische Matrix A ∈ Rn×n heißt invertierbar, falls A−1 ∈
18 Rn×n existiert mit A−1 · A = In . Wegen Anmerkung 16.13 ist A genau
19 dann invertierbar, wenn det(A) ∈ R ein invertierbares Element von R
20 ist.
21 Wir schreiben
23 für die allgemeine lineare Gruppe über R, die mit dem Matrixprodukt eine
24 Gruppe bildet.
25 (b) Zwei Matrizen A, B ∈ Rm×n heißen äquivalent, falls es S ∈ GLm (R)
26 und T ∈ GLn (R) gibt mit
27 B = SAT.
28 Um dies auszudrücken, benutzen wir die (ad hoc) Schreibweise
29 A ≈ B.
136 Die Smith-Normalform
1 Beispiel 18.3. (1) Eine Matrix A ∈ Zn×n ist genau dann invertierbar, wenn
2 det(A) ∈ {1, −1}.
3 (2) Die Matrizen
234 100
4 A= und B = ∈ Z2×3
567 030
25 A·x=b ⇐⇒ BT −1 x = S · b,
1
Beim Ersetzen von Z durch K[x] lautet die Bedingung: di ist normiert oder 0.
Die Smith-Normalform 137
y1
1 mit y2
y3
:= T −1 x ergibt sich also in diesem Beispiel das LGS
y1 b1
2 = .
3y2 b2 − b1
3 Also ist das LGS genau dann lösbar, wenn b2 − b1 durch 3 teilbar ist, also
4 wenn b1 ≡ b2 mod 3. In diesem Fall liefert y1 = b1 und y2 = b2 −b 3
1
eine
5 Lösung, also
x1 y1 −1 3 1 b1 b2 − 2b1 1
6 x2 = T · y2 = 1 −2 −2 · b2 −b1 = 5b1 −2b2 + c · −2
3 3
x3 y3 0 0 1 c 0 1
30 b1,j = b1,1 · q + r
2
Beim Ersetzen von Z durch K[x] ist der Grad deg(bi,j ) zu minimieren.
3
Beim Ersetzen von Z durch K[x] wird mit dem Inversen des höchsten Koeffizienten
von b1,1 multipliziert, so dass b1,1 normiert wird.
138 Die Smith-Normalform
1 Satz 18.8. Algorithmus 18.6 terminiert nach endlich vielen Schritten und
2 liefert eine Smith-Normalform von A. Insbesondere besitzt jede Matrix in
3 Zm×n eine Smith-Normalform.
4 Beweis. Aus Lemma 18.7 folgt, dass die Matrix B zu jeder Zeit während des
5 Algorithmus äquivalent zu A ist.
6 Jedesmal, wenn die Division durch b1,1 einen Rest r 6= 0 lässt, wird das mi-
7 nimale |bi,j | mit bi,j 6= 0 kleiner. Deshalb wird Schritt 13 irgendwann erreicht.
8 Per Induktion nach min{m, n} folgt, dass der rekursive Aufruf eine Smith-
9 Normalform D0 von B 0 liefert. Wegen der Äquivalenz von B 0 und D0 sind alle
10 Einträge von D0 Linearkombinationen der Einträge von B 0 mit Koeffizienten
11 aus Z. Da die Einträge von B 0 beim Erreichen von Schritt 13 Vielfache von
12 b1,1 sind, folgt dies also auch für die Einträge von D0 . Also ist die Matrix in
13 Schritt 14 tatsächlich in Smith-Normalform. t
u
14 Man kann Algorithmus 18.6 so variieren, dass die transformierenden Ma-
15 trizen S und T mitberechnet werden, indem man, ähnlich wie beim Verfah-
16 ren zur Berechnung einer inversen Matrix aus Seite 99, eine m × m- und
17 eine n × n-Einheitsmatrix mitführt, auf die man alle Zeilen- bzw. Spalten-
18 operationen ausübt. Wegen Lemma 18.7 erhält man aus diesen am Schluss
19 des Algorithmus die Matrizen S und T . Wir werden dies im Beispiel 18.9(2)
20 durchführen.
21 Beispiel 18.9. (1) Wir beginnen mit einer relativ großen Matrix. An diesem
22 Beispiel kann man lernen, dass es entscheidend ist, die Matrix-Einträge
23 im Verlauf der Rechnung möglichst klein zu halten. Stures Vorgehen nach
24 Algorithmus 18.6 ließe die Einträge explodieren. Wir betrachten
8 2 9 −2
25 A = 22 2 28 −8 ∈ Z3×4
20 −6 31 −12
26 und rechnen
8 2 9 −2 8 2 9 −2 1 −4 −2 −2
22 2 28 −8 −→ −2 −4 1 −2 −→ 9 2 8 −2 −→
20 −6 31 −12 (1) −4 −12 4 −6 (2) 4 −12 −4 −6 (3)
1 −4 −2 −2 1 0 0 0 1 0 0 0
27 0 38 26 16 −→ 0 38 26 16 −→ 0 2 4 4 −→
(4) (5) (6)
0 4 4 2 0 4 4 2 0 16 26 38
10 0 0 10 0 0 1000
0 2 4 4 −→ 0 2 0 0 −→ 0 2 0 0 .
(7) (8)
0 0 −6 6 0 0 −6 6 0060
28 Die Schritte waren: (1) Subtraktion des 3-fachen der ersten Zeile von der
29 zweiten und dritten, (2) Vertauschung der ersten und zweiten Zeile sowie
140 Die Smith-Normalform
1 der ersten und dritten Spalte, (3) Subtraktion der 9- bzw. 4-fachen der
2 ersten Zeile von der zweiten bzw. dritten, (4) Addition des 4-, 2- bzw.
3 2-fachen der ersten Spalte zu der zweiten, dritten bzw. vierten, (5) Ver-
4 tauschung der zweiten und vierten Spalte sowie der zweiten und dritten
5 Zeile, (6) Subtraktion des 8-fachen der zweiten Zeile von der dritten, (7)
6 Subtraktion des 2-fachen der zweiten Spalte von der dritten und vierten
7 und (8) Addition der dritten Spalte zur vierten und Multiplikation der
8 dritten Spalte mit −1. Normalerweise kennzeichnet man diese Schritte
9 direkt an den Matrizen wie in Beispiel 9.4.
10 (2) Wir betrachten wie in Beispiel 18.3(2) die Matrix
234
11 A= ∈ Z2×3
567
12 Bei der Rechnung führen wir eine Einheitmatrix rechts von A und eine
13 weitere unterhalb von A mit, und wenden alle Zeilenoperationen auf die
14 erste und alle Spaltenoperationen auf die zweite mit an.
23410 23 1 10 2 1 1 10
5 6 7 0 1 5 6 1 0 1 5 1 1 0 1
1 0 0
−→ 1 0 0
−→ 1 −1 0
−→
0 1 0 0 1 −1 0 1 −1
001 00 1 0 0 1
15
1 2 0 10 1 2 0 1 0 1 0 0 1 0
1 5 0 0 1 0 3 0 −1 1 0 3 0 −1 1
−→ −1 1 1 −→ −1 3 1
−1 1 1 .
1 0 −2 1 0 −2 1 −2 −2
0 0 1 0 0 1 0 0 1
16 Auf die Beschreibung der einzelnen Schritte soll hier verzichtet werden.
17 Wir erhalten die Smith-Normalform B = ( 10 03 00 ) und die transformie-
1 0
−1 3 1
18 renden Matrizen S = −1 1 und T = 1 −2 −2 . In Beispiel 18.3(2)
0 0 1
19 haben wir SAT = B schon nachgerechnet. /
20 Die Bezeichnung Smith-Normalform“ suggeriert, dass diese eindeutig be-
”
21 stimmt ist. Wir zeigen dies, indem wir die Diagonaleinträge einer Smith-
22 Normalform mit größten gemeinsamen Teilern von Minoren in Verbindung
23 bringen. Den Begriff größter gemeinsamer Teiler“ (ggT) erläutern wir kurz:
”
24 Sind a1 , . . . , an ∈ Z ganze Zahlen, so heißt eine ganze Zahl a ≥ 0 ein größter
25 gemeinsamer Teiler (ggT) von a1 , . . . , an , wenn a ein gemeinsamer Teiler
26 der ai und gleichzeitig ein Vielfaches von jedem anderen gemeinsamen Tei-
27 ler ist.6 Nach dieser Definition ist es zunächst gar nicht klar, dass es immer
28 einen ggT gibt. Wenn es aber einen gibt, so ist dieser eindeutig bestimmt,
6
Beim Ersetzen von Z durch K[x] wird statt a ≥ 0“ gefordert, dass a normiert
”
oder 0 ist.
Die Smith-Normalform 141
1 denn zwei ggT’s von a1 , . . . , an müssten sich gegenseitig teilen, sind also we-
2 gen der Bedingung a ≥ 0“ gleich.
”
3 Satz 18.10. Für A ∈ Zm×n sei B ∈ Zm×n eine Smith-Normalform mit Dia-
4 gonaleinträgen d1 , . . . , dr (wobei r = min{m, n}). Dann gilt für k = 1, . . . , r:
5 Das Produkt d1 · · · dk ist der ggT aller k × k-Minoren von A.
6 Insbesondere ist die Smith-Normalform von A eindeutig bestimmt.
Beweis. Wir schreiben A = (ai,j ) und nehmen ein k ∈ {1, . . . , r}. Zunächst
zeigen wir, dass sich die Menge der gemeinsamen Teiler der k × k-Minoren
von A nicht ändert, wenn A von links mit einer Matrix S = (si,j ) ∈ GLm (Z)
multipliziert wird. Wir betrachten zunächst den mit den ersten k Zeilen und
Spalten von S · A gebildeten Minor M und erhalten durch dieselbe Rechung
wie in (16.4)
X k
Y Xm
M= sgn(σ) · si,j aj,σ(i) =
σ∈Sk i=1 j=1
m k
!
X Y
= si,ji · det(ajt ,l )t,l=1,...,k .
j1 ,...,jk =1 i=1
7 Die det(ajt ,l )t,l=1,...,k sind gewisse k × k-Minoren von A, die Gleichung zeigt
8 also, dass jeder gemeinsame Teiler der k × k-Minoren von A auch ein Teiler
9 von M ist. Aus Symmetriegründen (und durch die selbe Rechnung) sehen wir,
10 dass dies auch gilt, wenn M irgendein k × k-Minor von C := S · A ist. Jeder
11 gemeinsame Teiler der k × k-Minoren von A ist also auch ein gemeinsamer
12 Teiler der k × k-Minoren von C. Wegen A = S −1 C gilt die Umkehrung, also
13 bleibt die Menge der gemeinsamen Teiler aller k × k-Minoren unverändert,
14 wenn man A durch S · A ersetzt. Ebenso bleibt diese Menge unverändert,
15 wenn man A durch A · S mit S ∈ GLn (Z) ersetzt, denn AS = (S T AT )T
16 (transponierte Matrizen), und die Minoren ändern sich beim Transponieren
17 nicht. Es folgt insbesondere, dass die Menge der gemeinsamen Teiler der
18 k × k-Minoren beim Übergang von A zur Smith-Normalform B unverändert
19 bleibt.
20 Die k × k-Minoren von B sind gleich 0 oder Produkte von k der di . We-
21 gen di | di+1 für i < r folgt: Eine ganze Zahl ist genau dann Teiler aller
22 k × k-Minoren, wenn sie Teiler des Produkts d1 · · · dk ist. Die Menge der ge-
23 meinsamen Teiler der k × k-Minoren von B ist also identisch mit der Menge
24 der Teiler von d1 · · · dk . Andererseits haben wir gesehen, dass diese Menge
25 identisch ist mit der Menge der gemeinsamen Teiler der k × k-Minoren von
26 A. Also ist d1 · · · dk tatsächlich der ggT der k × k-Minoren von A.
27 Hieraus folgt sofort die eindeutige Bestimmtheit der Diagonaleinträge bis
28 zu dem kleinsten k, bei dem dk = 0 gilt. Dieses k ist auch eindeutig bestimmt,
29 und wegen dk | di für i > k sind alle di mit i > k auch 0 und damit ebenso
30 eindeutig bestimmt. t
u
142 Die Smith-Normalform
19 d := ggT(a1 , . . . , an ).
26 Beispiel 18.13. Der ggT von 15 und 21 ist 3, und es gilt 3 = 3 · 15 − 2 · 21. /
27 Aus Proposition 18.12 können wir den Fundamentalsatz der Arithmetik,
28 d.h. den Satz über die eindeutige Primzerlegung in Z herleiten. Wir erinnern
29 daran, dass eine ganze Zahl p > 1 eine Primzahl heißt, wenn 1 und p die
30 einzigen positiven ganzzahligen Teiler von p sind7 .
31 Satz 18.14 (Fundamentalsatz der Arithmetik). Jede ganze Zahl a > 1 ist
32 Produkt von (nicht notwendig verschiedenen) Primzahlen:
33 a = p1 · · · pr .
7
Ein normiertes, nicht konstantes Polynom p ∈ K[x] heißt Primpolynom, falls 1
und p die einzigen normierten Teiler von p sind.
Die Smith-Normalform 143
1 Hierbei sind die Primzahlen pi bis auf die Reihenfolge eindeutig bestimmt.8
2 Beweis. In Satz 3.16 haben wir bereits gezeigt, dass jedes a > 1 Produkt von
3 Primzahlen ist.
4 Für den Beweis der Eindeutigkeit betrachten wir zunächst eine Primzahl p
5 und b, c ∈ Z mit p | (b · c). Falls p kein Teiler von b ist, so ist 1 der ggT
6 von p und b, also gibt es nach Proposition 18.12 ganze Zahlen x und y mit
7 1 = xb + yp. Es folgt
8 c = xbc + ypc,
9 also ist p ein Teiler von c. Wir haben gesehen: Falls eine Primzahl ein Produkt
10 ganzer Zahlen teilt, so teilt sie mindestens einen der Faktoren.
11 Nun seien a = p1 · · · pr und a = q1 · · · qs zwei Darstellungen von a als
12 Produkte von Primzahlen. Falls r = 1 ist, ist a eine Primzahl, also s = 1 und
13 q1 = p1 . Wir können also r > 1 annehmen. Wegen der obigen Aussage gibt es
14 ein i ∈ {1, . . . , s} mit p1 | qi , also p1 = qi , da qi eine Primzahl ist. Nun folgt
15 p2 · · · pr = q1 · · · qi−1 qi+1 · · · qs , und der Rest folgt per Induktion nach r. t
u
16 Natürlich können wir die Zerlegung einer ganzen Zahl a > 1 auch so
17 anordnen, dass gleiche Primzahlen in eine Potenz zusammengefasst werden,
18 also
Y r r
Y
19 a= pei i =: qi (18.1)
i=1 i=1
1 gleich 1 sind. Das Produkt der Elementarteiler ist aber gleich det(A) = d1 ,
2 also muss der letzte (und einzig wesentliche) Elementarteiler
Qsi d1 sein.
3 Nun betrachten wir den Fall r > 1. Es seien di = j=1 qi,j die Zerlegungen
4 in Primzahlpotenzen. Mit Ai := diag(qi,1 , . . . , qi,si ) folgt die Äquivalenz
5 Ai ≈ diag(1, . . . , 1, di )
2 Die Schritte waren: (1) Vertauschung der ersten und zweiten Spalte, (2) Ad-
3 dition des −(x − 1)-fachen der ersten Zeile zur zweiten, (3) Addition des
4 −(x + 3)- bzw. 2-fachen der ersten Spalte zur zweiten bzw. dritten, (4) Ver-
5 tauschung der zweiten und dritten Spalte und der zweiten und dritten Zeile,
6 (5) Addition des −2-fachen der zweiten Zeile zur dritten und Multiplikation
7 der dritten Spalte mit −1.
8 Die wesentlichen Elementarteiler der charakteristischen Matrix xI3 − A
9 sind also x + 1 und (x + 1)2 . /
10 Wir haben gesehen, dass die Mathematik dieses Abschnitts für die Rin-
11 ge Z und K[x] entwickelbar ist. Der gemeinsame Oberbegriff dieser beiden
12 Ringe ist der Begriff eines euklidischen Rings. Euklidische Ringe werden
13 (etwas grob gesagt) definiert als kommutative Ringe, bei denen Division mit
14 Rest möglich ist. Der Rest muss dabei bezüglich einer geeigneten Bewertung
15 (in unseren Beispielen Betrag einer ganzen Zahl bzw. Grad eines Polynoms)
16 kleiner sein als der Divisor. Weitere Beispiele für euklidische Ringe sind:
√
17 • Der Ring R = a + b −1 | a, b ∈ Z ⊆ C der Gaußschen ganzen Zahlen
18 mit √
19 R → N, a + b −1 7→ a2 + b2
20 als Bewertungsfunktion.
21 • Jeder Körper K mit
(
1 falls a 6= 0,
22 K → N, a 7→
0 sonst
23 als Bewertungsfunktion.
24 Ein Beispiel für einen nicht euklidischen Ring ist der Polynomring Z[x] über
25 Z. Dies kann man beispielsweise daran sehen, dass die Matrix (2, x) ∈ Z[x]1×2
26 keine Smith-Normalform besitzt.
146 Die Jordansche Normalform und allgemeine Normalform
3 In diesem Abschnitt geht es um die Frage, wie man eine quadratische Matrix
4 umformen kann in eine ähnliche Matrix, die eine möglichst übersichtliche Ge-
5 stalt hat. Dies ist gleichbedeutend zu der Frage, wie man zu einer linearen
6 Abbildung ϕ: V → V eines endlich-dimensionalen Vektorraums V eine Basis
7 B von V finden kann, so dass die Darstellungsmatrix DB (ϕ) übersichtlich
8 wird. Dies Thema wurde schon im Abschnitt 17 unter dem Stichwort Dia-
”
9 gonalisierbarkeit“ angeschnitten. Wir werden in jeder Ähnlichkeitsklasse von
n×n
10 Matrizen in K einen Standardvertreter“ finden und somit die Ähnlich-
”
11 keitsklassen klassifizieren. Dieser Standardvertreter wird die allgemeine Nor-
12 malform oder, falls das charakteristische Polynom in Linearfaktoren zerfällt,
13 die Jordansche Normalform genannt. Im Falle einer diagonalisierbaren Matrix
14 wird die Jordansche Normalform eine Diagonalmatrix sein.
15 Die Ergebnisse des vorherigen Abschnitts werden eine zentrale Rolle spie-
16 len. Dort ging es um Äquivalenz von Matrizen, nicht um Ähnlichkeit. Die
17 Brücke zwischen beiden Begriffen wird durch den folgenden, erstaunlichen
18 Satz gebildet. Wie zuvor steht in diesem Abschnitt K immer für einen Körper.
19 Satz 19.1. Zwei quadratische Matrizen über K sind genau dann ähnlich,
20 wenn ihre charakteristischen Matrizen äquivalent sind.
21 Beweis. Es seien A, B ∈ K n×n . Zunächst setzen wir voraus, dass A und B
22 ähnlich sind, und leiten daraus die Äquivalenz der charakteristischen Ma-
23 trizen xIn − A und xIn − B her. Es gibt S ∈ GLn (K) mit S −1 AS = B,
24 also
25 S −1 (xIn − A)S = S −1 xIn S − S −1 AS = xIn − B,
26 also in der Tat xIn − A ≈ xIn − B.
27 Umgekehrt setzen wir nun die Äquivalenz von xIn − A und xIn − B voraus
28 und zeigen die Ähnlichkeit von A und B. Dies ist der schwierigere Teil des
29 Beweises. Wir haben also S, T ∈ GLn (K[x]), so dass
31 Ist C ∈ K[x]n×n
Pmirgendeine Matrix mit Einträgen in K[x], so können wir
32 schreiben C = i=0 xi Ci mit Ci ∈ K n×n und definieren
m
X
33 C(A) := Ai Ci ∈ K n×n . (19.2)
i=0
Pk
34 Für jede weitere Matrix D ∈ K[x]n×n mit D = j=0 xj Dj (wobei Dj ∈
35 K n×n ) gelten dann die Regeln
Xm X
k X
(C · D)(A) = xi+j Ci Dj (A) = Ai+j Ci Dj
i=0 j=0 i,j
2 ! (19.4)
k
X m
X
= Aj Ai Ci · Dj = (C(A) · D) (A)
j=0 i=0
3 und
4 C ∈ K n×n =⇒ C(A) = C. (19.5)
5 Es gilt
6 (xIn − A)(A) = AIn − A = 0,
wegen (19.4) also
für alle i ∈ N. Wir zeigen nun, dass S(A) invertierbar ist. Wegen
Pm S ∈
GLn (K[x]) gibt es C ∈ K[x]n×n mit S·C = In . Wir schreiben C = i=0 xi Ci
mit Ci ∈ K n×n und erhalten
9 Wie behauptet folgt also S(A) ∈ GLn (K), und aus (19.6) erhalten wir
10 S(A)−1 · A · S(A) = B.
15 R−1 AR = B.
16 Mit Korollar 18.11 (übertragen auf den Fall von Matrizen mit Einträgen in
17 K[x]) erhalten wir:
148 Die Jordansche Normalform und allgemeine Normalform
1 Korollar 19.2. Zwei quadratische Matrizen über K sind genau dann ähn-
2 lich, wenn ihre charakteristischen Matrizen dieselben (wesentlichen) Ele-
3 mentarteiler haben.
4 Man kann die Ähnlichkeitsklasse einer quadratischen Matrix also an den
5 Elementarteilern der charakteristischen Matrix ablesen. Die Aufgabe, in de-
6 rer Ähnlichkeitsklasse einen übersichtlichen“ Vertreter zu finden, reduziert
”
7 sich nun darauf, zu einer gegebenen Folge von Elementarteilern eine über-
”
8 sichtliche“ Matrix zu finden, deren charakteristische Matrix genau diese Ele-
9 mentarteiler hat.
10 Beispiel 19.3. Wir betrachten
−1 0 0
11 A = 0 −1 0 ∈ R3×3 .
0 1 −1
23 ähnlich. Die zweite Matrix ist hierbei übersichtlicher. Sie ist ein Beispiel für
24 ein Matrix in Jordanscher-Normalform, die wir in Kürze definieren werden.
25 /
26 Die folgende Definition ist Bestandteil unseres Projekts, übersichtliche Ma-
27 trizen zu finden, deren charakteristische Matrizen vorgegebenen Elementar-
28 teiler haben. Wir erinnern daran, dass ein Primpolynom ein normiertes, nicht
29 konstantes Polynom f ∈ K[x] ist, dessen einzige normierten Teiler 1 und f
30 selbst sind. Beispielsweise ist jedes Polynom der Form x−a ein Primpolynom,
31 und x2 + 1 ∈ R[x] ist ein Primpolynom.
32 Definition 19.4. (a) Sei f = xn − an−1 xn−1 − · · · − a1 x − a0 ∈ K[x] ein
33 nicht konstantes, normiertes Polynom. Dann heißt
Die Jordansche Normalform und allgemeine Normalform 149
0 0 a0
1
.. a1
.
∈ K n×n
1 Bf := ..
.. 0 .
.
0 1 an−1
(e)
7 Bf ist also eine Block-Diagonalmatrix mit e identischen Blöcken Bf
8 und zusätzlich Einsern an den Positionen links unterhalb der Berühr-
(1)
9 punkte der Blöcke. Für e = 1 ist Bf = Bf . In dem wichtigen Spezialfall
10 f = x − a heißt
a 0
1 a
(e)
Bx−a =
.. ∈ K e×e
11
.
a
0 1 a
(e )
2 eine Block-Diagonalmatrix ist mit Matrizen Bfi i als Blöcke, wobei die
3 fi ∈ K[x] Primpolynome sind. Falls alle fi den Grad 1 haben (falls also
(e )
4 die Bfi i Jordan-Kästchen sind), so heißt A in Jordanscher Normal-
5 form.
6 (d) Sei A ∈ K n×n eine quadratische Matrix. Eine Matrix B ∈ K n×n heißt
7 eine allgemeine Normalform von A, falls B in allgemeiner Normal-
8 form und ähnlich zu A ist. Falls B sogar in Jordanscher Normalform ist,
9 so heißt sie eine Jordansche Normalform von A.
10 Beispiel 19.5. (1) Die Begleitmatrix eines normierten Polynoms f = x2 −
11 ax − b von Grad 2 ist
0b
12 Bf =
1a
13 (2) Die Matrizen
−1 0 0 200 000 1 0 0
14 0 −1 0 , 0 1 0 , 1 0 0 und 0 −1 0
0 1 −1 011 010 0 0 −1
17 aber nicht.
18 (3) Wegen Beispiel 19.3 hat
−3 −1 2
19 A = 4 1 −4 ∈ R3×3 .
0 0 −1
20 die Matrix
Die Jordansche Normalform und allgemeine Normalform 151
−1 0 0
1 B = 0 −1 0
0 1 −1
2 als Jordansche Normalform.
3 (4) Über K = R ist x2 + x + 1 ein Primpolynom, also sind die Matrizen
0 −1 0 0 0 −1 0 0 0 −1 0 0
1 −1 0 0 1 −1 0 0 1 −1 0 0
4
0 1 0 −1 , 0 0 0 −1 und 0 0 2 0
0 0 1 −1 0 0 1 −1 0 0 12
5 in allgemeiner Normalform. /
6 Lemma 19.6. Es sei f ∈ K[x] ein nicht konstantes, normiertes Polynom
7 und e ∈ N>0 .
8 (a) Das charakteristische Polynom der Begleitmatrix Bf ist χBf = f .
(e)
9 (b) Die charakteristische Matrix von Bf hat den einzigen wesentlichen Ele-
e
10 mentarteiler f .
11 Beweis. (a) Wir schreiben f = xn − an−1 xn−1 − · · · − a1 x − a0 und A := Bf .
12 Für die Standardbasisvektoren ei mit 1 ≤ i ≤ n − 1 gilt A · ei = ei+1 ,
13 also
14 Ai · e1 = e1+i (i = 0, . . . , n − 1). (19.7)
15 Weiter gilt
n−1
X n−1
X
n
16 A · e1 = A · en = ai ei+1 = ai Ai · e1 .
(19.7) (19.7)
i=0 i=0
17 Es folgt
18 f (A) · e1 = 0.
19 Andererseits folgt aus dem Satz von Cayley-Hamilton (Satz 17.17) mit
20 g := χA die Beziehung g(A) · e1 = 0. Da f und g normiert vom Grad n
Pn−1
21 sind, können wir f − g = i=0 bi xi mit bi ∈ K schreiben, und es folgt
n−1
X n−1
X
22 0 = (f − g)(A) · e1 = bi Ai · e 1 = bi e1+i ,
(19.7)
i=0 i=0
1 Der letzte Elementarteiler muss daher gleich der Determinante von xIm −
(e)
2 Bf sein. Dies ist eine untere Block-Dreiecksmatrix mit Diagonalblöcken
3 xIn − Bf . Wegen (a) ist der gesuchte letzte Elementarteiler also f e . t
u
4 Wir kommen nun zum Hauptergebnis dieses Abschnitts, dass jede quadra-
5 tische Matrix eine allgemeine Normalform besitzt. Der Satz 18.14 über ein-
6 deutige Primzerlegung überträgt sich auf Polynome. Insbesondere kann man
7 bei der Primzerlegung eines nicht konstanten, normierten Polynoms f ∈ K[x]
8 jeweils gleiche Primpolynome fi zu Potenzen zusammenfassen und erhält so
9 eine Zerlegung
Ys
10 f= fiei
i=1
11 in Primpolynompotenzen.
12 Satz 19.7. Sei A ∈ K n×n eine quadratische Matrix.
13 (a) A hat eine allgemeine Normalform. Anders gesagt: A ist ähnlich zu einer
14 Matrix B in allgemeiner Normalform.
15 (b) A hat genau dann eine Jordansche Normalform, wenn das charakteri-
16 stische Polynom χA in Linearfaktoren zerfällt. Falls K algebraisch ab-
17 geschlossen ist (z.B. K = C), so hat also jede quadratische Matrix eine
18 Jordansche Normalform. Die Diagonaleinträge der Jordanschen Normal-
19 form sind die Eigenwerte von A.
20 Beweis. (a) Es seien d1 , . . . , dr ∈ K[x] die wesentlichen Elementarteiler von
21 xIn − A, und f1e1 , . . . , fses seien die Primpolynompotenzen aus der Zerle-
22 gung der di . Wir bilden die Block-Diagonalmatrix
(e ) (e )
23 B = diag Bf11 , . . . , Bfss
(e )
24 also eine Matrix in allgemeiner Normalform. Jedes Bf1i hat ei · deg(fi )
25 Zeilen und Spalten, wegen
s s
! r
!
X Y Y
ei
26 ei deg(fi ) = deg fi = deg di = deg(χA ) = n
i=1 i=1 i=1
29 Wegen Proposition 18.15 (in der Version für Polynome in K[x]) gilt weiter
23 Aus der Liste von Primpolynompotenzen fiei bilden wir nun wie folgt eine
24 Sequenz d1 , . . . , dr von Polynomen: Zunächst sei d1 das kleinste gemeinsame
25 Vielfache der fiei . Die Zerlegung von d1 in Primpolynompotenzen besteht aus
26 einigen der fiei , die wir aus nun der Liste streichen. Von den verbleibenden
27 fiei bilden wir erneut das kgV und setzen es d2 . So fahren wir fort, bis alle
28 fiei abgearbeitet sind. Die fiei sind nun genau die Primpolynompotenzen, die
29 in der Zerlegung der dj auftreten. Außerdem ist jedes dj ein Vielfaches des
30 nachfolgenden. Indem wir die Reihenfloge der dj umdrehen, erreichen wir also
31 dj | dj+1 für j < r. Wegen Proposition 18.15 (in der Version für Polynome in
32 K[x]) folgt
34 Zusammen mit der obigen Äquivalenz ergibt sich, dass xIn − A die Smith-
35 Normalform diag (1, . . . , 1, d1 , . . . , dr ) hat, also sind die dj die wesentlichen
36 Elementarteiler von xIn − A. Damit ist der Satz bewiesen. t
u
37 Zum Berechnen der allgemeinen Normalform kann man also Algorith-
38 mus 18.6 auf die charakteristische Matrix anwenden und erhält die Elementar-
39 teiler. Aus deren Zerlegung in Primpolynompotenzen geht dann die allgemei-
154 Die Jordansche Normalform und allgemeine Normalform
1 wobei wir im ersten Schritt nach der dritten Zeile entwickelt haben. Der
2 einzige Eigenwert ist also λ = −1 mit algebraischer Vielfachheit 3. Der
3 Rang von
−2 −1 2
4 A + I3 = 4 2 −4
0 0 0
5 ist 1, also gibt es zwei Jordan-Kästchen. Da die Gesamtlänge 3 ist, müssen
6 sie die Länge 1 und 2 haben, die Jordansche Normalform ist also
−1 0 0
7 0 −1 0 .
0 1 −1
−x2 − x + 2
x+3 1 3 1
−1 x−1 x−1 −1 0
= det 1 0 0 0 0
(1)
−4
−1 4x − 4 x−5 −1
2 0 −2x + 2 2 x−1
−x2 − x + 2
1 3 1
x − 1 x−1 −1 0
= det
(2) −1 4x − 4 x−5 −1
0 −2x + 2 2 x−1
156 Die Jordansche Normalform und allgemeine Normalform
−x2 + 3x − 2
0 x−2 0
x−1 x−1 −1 0
= det
(3) −1 4x − 4 x−5 −1
−x + 1 4x2 − 10x + 6 x2 − 6x + 7 0
−x2 + 3x − 2
0 x−2
= det x − 1
x−1 −1
(4) 2 2
−x + 1 4x − 10x + 6 x − 6x + 7
−x2 + 3x − 2
0 x−2
= det x − 1 x−1 −1
(5)
0 4x2 − 9x + 5 x2 − 6x + 6
2
−x + 3x − 2 x−2
= −(x − 1) · det
(6) 4x2 − 9x + 5 x2 − 6x + 6
0 x−2
= −(x − 1) · det 3
(7) x − 3x2 + 3x − 1 x2 − 6x + 6
1 Die Schritte waren: (1) Addieren des (−x+2)-fachen der ersten Spalte zur
2 dritten, (2) Entwickeln nach der dritten Zeile, (3) Addition der dritten
3 Zeile zur ersten und des (x − 1)-fachen der dritten Zeile zur letzten,
4 (4) Entwickeln nach der letzten Spalte, (5) Addieren der zweiten Zeile
5 zur dritten, (6) Entwickeln nach der ersten Spalte und (7) Addieren des
6 (x − 1)-fachen der zweiten Spalte zur ersten.
Der Eigenwert 2 ergibt ein Jordan-Kästchen der Länge 1. Der Eigenwert 1
hat algebraische Vielfachheit 4. Wir berechnen den Rang von A − I5 :
−4 −1 4 −3 −1 0 −1 0 1 −1
1 0 −1 1 0 1 0 −1 1 0
rg(A − I5 ) = rg
−1 0 1 0 0 = rg 0 0 0 1 0
4 1 −4 4 1 0 1 0 0 1
−2 0 2 −2 0 0 0 0 0 0
00 0 10
1 0 −1 1 0
0 0 0 1 0 = 3.
= rg
0 1 0 0 1
00 0 00
19 Wir wissen, dass es zwei Jordan-Kästchen der Länge 1 und 2 zum Ei-
20 genwert −1 gibt (siehe Beispiel 19.5(3)). Der Eigenraum E−1 hat also
(2)
21 die Dimension 2, der Hauptraum E−1 muss also Dimension 3 haben.
22 (Diese Dimensionen ergeben sich auch aus der Formel in Satz 19.9(a).)
23 Wir können als Keim“ einer Jordanbasis also mit einem beliebigen Vek-
”
24 tor außerhalb E−1 beginnen. Wir wählen den ersten Standardbasisvektor
25 v1 := e1 . Weiter setzen wir
−2
26 v2 := Av1 + v1 = 4 .
0
4 (siehe Beispiel 19.10(2)). Für den Eigenwert λ = 2 finden wir durch Lösen
5 des entsprechenden homogenen LGS den Eigenvektor
0
1
6
2 ,
v1 =
3
−2
7 den wir als ersten Vektor in die Jordan-Basis aufnehmen. Nun behandeln
8 wir den Eigenwert λ = 1 und suchen als erstes einen Vektor für das
(3)
9 Jordan-Kästchen der Länge 3. Hierzu müssen wir E1 , also den Kern von
3
10 (A − I5 ) , berechnen. Wir kennen aus Beispiel 19.10(2) bereits die Ränge
11 von A−I5 und (A−I5 )2 (nämlich 3 und 2), und erhalten rg (A − I5 )3 =
12 1 durch Auflösen der Formel aus Satz 19.9(a). Es genügt also, eine Zeile
13 von (A−I5 )3 zu berechnen, wobei wir (A−I5 )2 schon aus Beispiel 19.10(2)
14 kennen. Am einfachsten ist die dritte Zeile von (A − I5 )3 , die sich zu
15 (2, 0, −2, 2, 0) ergibt. Wir wählen
0
1
(3) (2)
16
0 ∈ E1 \ E1 .
v3 :=
0
0
17 und weiter
−1 1
0 0
18 v4 := (A − I5 ) · v3 =
0
und v5 := (A − I5 ) · v4 =
1 .
1 0
0 0
1 A · v 3 = v3 + v4 , A · v4 = v4 + v5 und A · v5 = v5
11 wählen. Die Nummerierung der vi haben wir so gemacht, dass sie mit der
12 gewählten Reihenfolge der Jordan-Kästchen in Beispiel 19.10(2) kompa-
13 tibel ist. Als transformierende Matrix erhält man
0 0 0 −1 1
1 −1 1 0 0
14 S= 2 0 0 0 1 .
3 0 0 1 0
−2 1 0 0 0
15 /
16 Dies ist eine geeignete Stelle, um den Begriff des Minimalpolynoms ei-
17 ner Matrix A ∈ K n×n einzuführen. Nach dem Satz von Cayley-Hamilton
18 (Satz 17.17) gilt für das charakteristische Polynom χA die Beziehung χA (A) =
19 0, also existiert ein (normiertes) Polynom, das A als Nullstelle“ hat. (Dies
”
20 hätten wir auch daraus folgern können, dass wegen dim(K n×n ) < ∞ die Po-
21 tenzen von A linear abhängig sein müssen.) Das Minimalpolynom von A
Dualraum 161
16 20 Dualraum
24 V ∗ := Hom(V, K)
7 eine Linearform. Wir können V ∗ also mit dem Raum der K-wertigen
8 Folgen identifizieren. /
9 Es sei nun V ein K-Vektorraum und B eine Basis. Jedes v ∈ V lässt sich
10 also eindeutig schreiben als
X
11 v= aw · w
w∈B
12 mit aw ∈ K, wobei nur endlich viele der aw ungleich 0 sind. Wir fixieren jetzt
13 einen Basisvektor b ∈ B und definieren eine Abbildung
X
14 b∗ : V → K, v = aw · w 7→ ab .
w∈B
16 B ∗ := {b∗ | b ∈ B}
4 f und g stimmen also auf der Basis B überein. Wegen Satz 11.12(a) folgt
5 f = g. Wegen g ∈ hB ∗ i erhalten wir V ∗ = hB ∗ i, also ist B ∗ eine Basis.
6 Nun sei B unendlich. Jede Linearkombination von B ∗ ist eine Linearform,
7 die nur auf endlich vielen Basisvektoren einen Wert 6= 0 annimmt. Also
8 liegt die Linearform
X X
9 f : V → K, v = aw · w 7→ aw
w∈B w∈B
19 V ∗∗ := (V ∗ )∗ .
20 Man nennt V ∗∗ den Bidualraum. Für v ∈ V können wir ein ganz spezielles
21 Element ϕv ∈ V ∗∗ wie folgt definieren:
22 ϕv : V ∗ → K, f 7→ f (v).
25 und
26 ϕv (a · f ) = (a · f )(v) = a · f (v) = a · ϕv (f ).
27 Satz 20.4. Es sei V ein K-Vektorraum.
28 (a) Die Abbildung
29 Φ: V → V ∗∗ , v 7→ ϕv
30 ist linear und injektiv.
31 (b) Genau dann ist Φ ein Isomorphismus, wenn dim(V ) < ∞.
164 Dualraum
3 und
4 ϕav (f ) = f (av) = af (v) = aϕv (f ).
5 also
7 Damit ist Φ linear. Für den Nachweis von Kern(Φ) = {0} nehmen wir ein
8 v ∈ V mit v 6= 0. Wir können {v} zu einer Basis B von V ergänzen. Für
9 f := v ∗ ∈ B ∗ gilt dann f (v) = 1, also ϕv (f ) 6= 0. Es folgt v ∈
/ Kern(Φ).
10 Damit ist auch die Injektivität von Φ gezeigt.
11 (b) Falls dim(V ) < ∞, so liefert zweimaliges Anwenden von Satz 20.3(b)
13 Aus (a) und Korollar 11.11 folgt, dass Φ ein Isomorphismus ist.
14 Nun sei V unendlich-dimensional und B eine Basis. Die Dualbasis B ∗ ist
15 nach Satz 20.3(a) linear unabhängig, also lässt sie sich zu einer Basis C ∗
16 von V ∗ ergänzen. Wir definieren ϕ ∈ V ∗∗ durch
X X
17 ϕ: V ∗ → K, f = ac · c 7→ ac
c∈C ∗ c∈C ∗
19 Zum Beweis des Satzes bemerken wir, dass der Teil (a) direkt aus Defini-
20 tion 2.13 folgt. Will man aber die Teile (b) und (c) beweisen, so braucht man
21 eine Definition der Addition und der Multiplikation von natürlichen Zah-
22 len. Da wir dies nicht gemacht, sondern nur grob angedeutet haben (siehe
23 Seite 12), können wir die Beweise nicht führen. Verfügt man über Defini-
166 Binomialkoeffizienten und Kombinatorik
1 tionen für Addition und der Multiplikation von natürlichen Zahlen, so ist
2 der Nachweis der Teile (b) und (c) jedoch nicht schwer. Da diese Teile intui-
3 tiv unmittelbar einsichtig sind, sollte uns das Fehlen formaler Beweise keine
4 Kopfschmerzen bereiten.
5 Den schwierigeren Fall von nicht disjunkten Vereinigungen werden wir
6 später behandeln (siehe Satz 21.8).
7 Beispiel 21.2. Sind A und B endliche Mengen mit k := |A| und n := |B|, so
8 können wir die Anzahl der injektiven Funktionen g: A → B bestimmen. Falls
9 A = ∅, so gibt es genau eine solche Funktion. Andernfalls wählen wir a0 ∈ A
10 und zerlegen die Menge F der injektiven Funktionen A → B disjunkt als
.
[
11 F = g: A → B | g injektiv, g(a0 ) = b .
b∈B
| {z }
=:Fb
12 Die Einschränkung auf A \ {a0 } liefert eine Bijektion von Fb auf die Menge
13 der Injektionen A\{a0 } → B \{b}. Die gesuchte Elementanzahl f (k, n) = |F |
14 erfüllt also die Gleichung
15 f (k, n) = n · f (k − 1, n − 1).
18 Die Zahl nk wird die k-te fallende Faktorielle (von n) genannt. Für k ≤ n
19 ist dies gleich n!/(n−k)!, und für k > n ist dies gleich 0. Insbesondere erhalten
20 wir die bekannte Formel |Sn | = n! für die symmetrische Gruppe. /
21 Wir hätten das obige Beispiel auch weniger formal behandeln können und
22 die Zahl |F | interpretieren können als die Anzahl der Möglichkeiten, aus n
23 Kugeln hintereinander k Stück ohne Zurücklegen zu ziehen, wobei es auf die
24 Reihenfolge der Züge ankommt. Kommt es jedoch nicht auf die Reihenfolge
25 der Züge an, so muss man die fallende Faktorielle durch k! dividieren. Es
26 gibt also nk /k! Möglichkeiten, eine ungeordnete Menge von k Kugeln aus ei-
27 ner Urne mit n Kugeln ohne Zurücklegen zu ziehen. Wir werden dies später
28 mathematischer formulieren und formaler beweisen (siehe Satz 21.6), neh-
29 men die obige Formel aber zum Anlass für die folgende etwas allgemeinere
30 Definition.
31 Definition 21.3. Für eine komplexe Zahl a ∈ C und eine natürliche Zahl
32 k ∈ N ist
Qk−1
a (a − i) a a−1 a − (k − 1) ak
33 = i=0 = · ··· =
k k! 1 2 k k!
Binomialkoeffizienten und Kombinatorik 167
7 ein Polynom vom Grad k ist. Einsetzen von x = a in dieses Polynom ergibt
a
8
k .
(e)
a a a+1
21 + = (Formel für das Pascalsche Dreieck).
k k+1 k+1
(f )
a a
22 =1 und =a (spezielle Werte).
0 1
(g)
−a k a+k−1
23 = (−1) .
k k
168 Binomialkoeffizienten und Kombinatorik
3 (Dies gilt sogar dann, wenn a und b aus einem kommutativen Ring kom-
4 men, der nicht Q enthält.)
5 (i) Falls n ≥ 0, dann
n
X i n+1
6 = (Summenformel).
i=0
k k+1
(j)
k
X a b a+b
7 = (Vandermondesche Identität).
j=0
j k−j k
Beweis. Die Aussagen (b), (d), (f) und (g) folgen direkt aus der Definition,
und (c) folgt aus (b). Teil (e) ergibt sich aus der Rechung
Qk−1 Qk
a a (k + 1) i=0 (a − i) + i=0 (a − i)
+ =
k k+1 (k + 1)!
Qk
(k + 1 + a − k) j=1 (a − j + 1)
a+1
= = .
(k + 1)! k+1
8 Wie wir sehen werdem, wird (e) für alle weiteren Nachweise entscheidend
9 verwendet.
10 Die Ganzzahligkeit (a) gilt für k = 0 oder n = 0 nach (f) und (d). Für
11 positive n und k folgt sie per Induktion nach n mit (e), und für negative n
12 dann aus (g).
Die binomische Formel (h) zeigen wir per Induktion. Für n = 0 folgt sie
aus (f). Weiter gilt
(a + b)n+1 =
n n n
X n k n−k X n k n+1−k X n k+1 n−k
(a + b) a b = a b + a b =
k k k
k=0 k=0 k=0
n
X n n
1 · bn+1 +
k n+1−k
+ a b + 1 · an+1 =
k k−1
k=1
n+1
X n + 1
ak bn+1−k ,
k
k=0
Binomialkoeffizienten und Kombinatorik 169
1 wobei wir für die erste Gleichheit Induktion und für die letzte (e) benutzt
2 haben.
3 Teil (i) lässt sichebenfalls durch Induktion nach n zeigen. Für n = 0 lautet
4 die Behauptung k0 = k+1 1
, was wegen (d) und (f) stimmt. Weiter gilt
n+1
X
i n+1 n+1 n+2
5 = + = ,
i=0
k k+1 k k+1
6 wobei wir für die erste Gleichheit Induktion und für die zweite (e) benutzt
7 haben.
8 Der Nachweis der Vandermondeschen Identität (j) ist der schwierigste und
9 interessanteste. Wir beginnen mit dem Spezialfall, dass a und b im Polynom-
10 ring Q[x] liegen, und zwar, noch spezieller, dass a = x und b = n ∈ N. Wir
11 benutzen Induktion nach n. Zu zeigen ist also
k
X x n x+n
12 = , (21.1)
j=0
j k−j k
k k−1
X x n
X x n+1 x n
= + + =
j=0
j k−j k j=0
j k−j k−j−1
x+n x+n x+n+1
+ = ,
k k−1 k
13 wobei wir für die erste und dritte Gleichheit (e) und für die zweite In-
14 duktion verwendet haben. Hiermit ist (21.1) nachgewiesen. Es mag erstau-
15 nen, dass dieser Spezialfall eigentlich schon den allgemeinen Fall beinhaltet.
16 Denn (21.1) sagt, dass (für jedes k ∈ N) das Polynom
k
X x y x+y
17 −
j=0
j k−j k
18 in der Variablen y und mit Koeffizienten aus Q[x] alle natürlichen Zahlen als
19 Nullstellen hat. Es muss sich also um das Nullpolynom handeln. Setzt man
20 nun in dieses Polynom x = a und y = b ein, ergibt sich (j). t
u
21 Alle Eigenschaften aus 21.4 sind wichtig für Anwendungen. Für die Formel
22 in (e) werden wir einige sehen. Nicht direkt klar ist, warum die Summenfor-
23 mel (i) und die Vandermondesche Identität (21.1) wichtig sind. Letztere wird
24 im nächsten Abschnitt 22 eine interessante Rolle spielen. Die Summenformel
25 wenden wir in folgendem Beispiel an.
170 Binomialkoeffizienten und Kombinatorik
n(n + 1)
2 1 + 2 + ··· + n =
2
3 ist
Pnder kFall k = 1 in Satz 21.4(i). Man bekommt auch Summenformeln für
k
4 i
i=0 , indem man das Polynom x als (ganzzahlige) Linearkombination
von x1 , . . . , xk darstellt und dann Satz 21.4(i) für die Summation der Bino-
5
|M | = |Mx | + |Mx | =
Satz 21.1(b) Satz 21.1(a)
S ⊆ A \ {x} | |S| = k − 1 + T ⊆ A \ {x} | |T | = k
n−1 n−1 n
= + = .
Induktion k − 1 k Satz 21.4(e) k
12 [n] := {1, 2, . . . , n}
13 für n ∈ N.
14 Im folgenden Satz geht es um die Elementanzahl einer Vereinigung von
15 endlich vielen endlichen Mengen, die nicht disjunkt sein müssen. Wir könnten
16 solche Mengen als A1 , . . . , An aufzählen oder sie als endliches Mengensy-
17 stem zu schreiben. Der Satz enthält beide Varianten und benutzt die obigen
18 Schreibweisen.
19 Satz 21.8 (Inklusion-Exklusion). Für endliche Mengen A1 , . . . , An gilt
n n
[ X
X \
k−1
Ai = (−1) Ai . (21.2)
20
i=1 k=1 [n]
I∈( k ) i∈I
∅6=N ⊆M
172 Binomialkoeffizienten und Kombinatorik
1 Beispiel 21.9. Vor dem Beweis des Satzes schauen wir die Fälle n = 2 und
2 n = 3 an, die lauten (mit endlichen Mengen A, B, C):
4 und
7 Beweis von Satz 21.8. Wir benutzen Induktion nach n. Für n = 1 lautet die
8 Behauptung |A1 | = |A1 | (und auch für n = 0 stimmt der Satz mit den leeren
9 Summen interpretiert als 0). Für den Induktionsschritt brauchen wir den Fall
10 n = 2. Es seien also A und B irgendwelche endliche Mengen. Dann gelten
. .
11 A ∪ B = A ∪ (B \ A) und B = (B \ A) ∪ (A ∩ B),
12 woraus sich mit Satz 21.1(b) die Formel (21.4) ergibt. Für den Fall n ≥ 3 ist
13 es günstig, die behauptete Formel (21.2) umzuschreiben zu
n
[ X \
|I|−1
Ai = (−1) Ai ,
14
i=1 ∅6=I⊆[n] i∈I
Sn−1
Anwendung der Induktionsannahme auf B und auf B ∩ An = i=1 (Ai ∩ An )
liefert
n
[ X \
|I|−1
Ai = (−1) Ai + |An |+
i=1 ∅6=I⊆[n−1] i∈I
X \ X \
|I| |I|−1
(−1) Ai = (−1) Ai ,
∅6=I⊆[n−1] i∈I∪{n} ∅6=I⊆[n] i∈I
4 aber die Vereinigung ist nicht disjunkt. Mit n := |A| liefert Satz 21.8
n
X X \
k−1
|SA \ D| = (−1) (SA )x .
5
k=1 I∈(A x∈I
k)
T
6 Für eine nicht leere Teilmenge I ⊆ A besteht die Schittmenge x∈I (SA )x
7 aus den Permutationen, die jedes Element von I fixieren. Die Abbildung
\
8 (SA )x → SA\I , σ 7→ σ|A\I (Einschränkung)
x∈I
T
ist bijektiv, also x∈I (SA )x = |SA\I | = (n − |I|)! wegen Satz 21.1(a). Wir
erhalten
k
Der Quotient |D| D
Pn (−1)
9
n! = |SA | ist also k=0 k! , was für n → ∞ sehr schnell
1
10 gegen exp(−1) = e konvergiert. Als Fazit haben wir gelernt, dass ungefähr
11 37 Prozent aller Permutationen fixpunktfrei sind. /
12 22 Erzeugende Funktionen
1 wobei die Summanden den Bestand vom Vormonat und die Nachkommen der
2 mindestens zwei Monate alten Kaninchen darstellen. Die Zahlen an sind die
3 Fibonacci-Zahlen, wobei zusätzlich
4 a0 = 0 und a1 = 1
5 festgelegt wird. Dies ergibt die Folge (an )n = (0, 1, 1, 2, 3, 5, 8, 13, 21, 34, . . .).
6 Gesucht ist eine Formel für die Berechnung der an . Eine solche lässt sich fin-
7 den, indem man die obige Rekursionsgleichung in Matrix-Schreibweise bringt
8 und dann per Diagonalisierung die Potenzen der vorkommenden Matrix be-
9 rechnet. Wir wählen hier einen anderen Weg, der auf eine größere Klasse von
10 durch Rekursionsgleichungen definierten Zahlenfolgen anwendbar ist.
11 Wir stellen die sogenannte erzeugende Funktion auf, womit die Potenz-
12 reihe mit den an als Koeffizienten gemeint ist, also
∞
X
13 f= an xn .
n=0
14 Dieser Ansatz ist zugleich gewagt und naiv. Gewagt, weil es zunächst un-
15 plausibel erscheint, dass beim Verwendung irgendeiner Zahlenfolge als Koef-
16 fizienten einer Potenzreihe eine sinnvolle“ Funktion herauskommt. Und naiv
”
17 deshalb, weil wir uns keine Gedanken über die Konvergenz der Potenzreihe
18 gemacht haben. Diese Gedanken werden wir nachholen und der Konvergenz-
19 frage auf eine vielleicht überraschende Art begegnen. Zunächst rechnen wir
20 weiter und tun so, also sei alles in Ordnung. Aus den obigen Gleichungen
21 ergibt sich
∞
X ∞
X
22 f =x+ an+2 xn+2 = x + (an + an+1 )xn+2 = x + (x + x2 )f,
n=0 n=0
x(1 − γ1 x)(1 − γ2 x) = β1 (1 − γ2 x) + β2 (1 − γ1 x) (1 − x − x2 ).
30
Erzeugende Funktionen 175
10 Durch Koeffizientenvergleich erhalten wir nun die gewünschte Formel für die
11 Fibonacci-Zahlen:
√ !n √ !n !
1 1+ 5 1− 5
12 an = √ − . (22.1)
5 2 2
13 Wir haben unser Ziel erreicht, müssen allerdings unsere Rechnungen nun
14 (nachträglich) auf solide Füße stellen.
15 Dies tun wir, indem wir Potenzreihen nicht als (konvergente) Reihen be-
16 trachten, sondern sie definieren als formale Potenzreihen, bei denen Konver-
17 genzbetrachtungen keine Rolle spielen. Dazu erinnern wir uns an unsere Defi-
18 nition von Polynomen (Definition 7.10) und modifizieren diese auf scheinbar
19 geringfügige Weise.
20 Definition 22.1. Es sei R ein kommutativer Ring.
21 (a) Eine formale Potenzreihe über R ist eine Abbildung f : N → R, n 7→ an
22 (d.h. ein R-wertige Folge). Die an heißen die Koeffizienten von f . Der
23 Unterschied zwischen einem Polynom und einer formalen Potenzreihe ist
24 also, dass bei einem Polynom nur endliche viele Koeffizienten ungleich 0
25 sein dürfen.
26 (b) Für zwei formale Potenzreihen f : N → R, n 7→ an und g: N → R, n 7→ bn
27 definieren wir
28 f + g: N → R, n 7→ an + bn
29 und
n
X X
30 f · g: N → R, n 7→ aj bn−j = aj · bk .
j=0 j,k∈N
mit j+k=n
9 /
10 Nun können wir unsere RechnungenP∞ zu den Fibonacci-Zahlen vollständig
11 rechtfertigen: Die Potenzreihe f = n=0 an xn (mit an die Fibonacci-Zahlen)
12 ist eine formale Potenzreihe in C[[x]], und für diese haben wir die Gleichung
13 f = x + (x + x2 )f hergeleitet. Da 1 − x − x2 in C[[x]] invertierbar ist, folgt
x
14 f = 1−x−x 2 . Auch die Rechungen zur Partialbruchzerlegung spielen sich
15 komplett im formalen Potenzreihenring ab, und die Formel (22.1) für die an
16 ergibt sich aus (22.3).
17 In R[[x]] gibt es auch eine ganze Menge Elemente mit Quadratwurzeln.
P∞
18 Man kann beispielsweise ähnlich wie in Satz 22.2 zeigen, dass f = n=0 an xn
19 in R[[x]] eine Quadratwurzel hat, falls a0 6= 0 in R eine Quadratwurzel hat
20 und außerdem 2 in R invertierbar ist. Inverse bzw. Quadratwurzeln werden
21 hierbei urch rekursive Formeln gegeben. Aus dem folgenden Satz werden wir
22 dies für einige formale Potenzreihen explizit machen.
23 Satz 22.4. Es seien a, b ∈ R Elemente eines kommutativen Rings, der Q
24 enthält. Mit
∞
X a k
25 Fa := x ∈ R[[x]]
k
k=0
26 gilt dann
27 Fa · Fb = Fa+b .
28 Insbesondere gelten
2
3 woraus (22.2) folgt. Weiter gilt F1/2 = F1 , was man salopp als
∞
√
X 1/2
4 1+x= xk
k
k=0
5 schreiben kann. (Die Schreibweise ist deshalb salopp, weil die Quadratwurzel
6 nicht eindeutig definiert ist.) /
7 Als eine interessante Anwendung von erzeugenden Funktionen und des obi-
8 gen Satzes werden wir nun die sogenannten Catalan-Zahlen behandeln. Wir
9 werden zwei Zählprobleme anschauen und jeweils aus Rekursionsgleichungen
10 mit Hilfe von erzeugenden Funktionen Ausdrücke für die gesuchten Zahlen
11 herleiten.
12 Als erstes fragen wir, wieviele Möglichkeiten es gibt, ein regelmäßiges n-
13 Eck (oder allgemeiner ein konvexes n-Eck) durch Verbindungslinien zwischen
14 einigen der Eckpunkte in Dreiecke aufzuteilen. Eine solche Aufteilung in
15 Dreiecke nennt man eine Triangulation. Triangulationen spielen in der To-
16 pologie eine wichtige Rolle, weil sie helfen können, Oberflächen und andere
17 geometrische Objekte zu klassifizieren. Für Vierecke (n = 4) gibt es zwei
18 Möglichkeiten:
19
21
↔
1
6 6 2
7 1, 2, 5, 14, . . .
15 Bei der dritten Klammerung hat man die Möglichkeiten, zuerst A1 A2 und
16 dann A3 A4 auszurechnen oder umgekehrt. Wir lassen jedoch die Reihenfolge
17 der Berechnungen außer Acht, betrachten also tatsächlich nur die Klamme-
18 rung. Wer in der Auflistung der Klammerungen für n = 4 eine Systematik
19 entdeckt hat, kann nun in der selben Weise fortfahren mit dem Fall n = 5,
20 bei dem die Sequenz der Klammerungen beginnt mit
21 A1 (A2 (A3 (A4 A5 ))), A1 (A2 ((A3 A4 )A5 )), A1 ((A2 A3 )(A4 A5 )) . . .
24 1, 2, 5, 14, . . .
180 Erzeugende Funktionen
3 Bei jeder Klammerung bezeichnet die darunterstehende Zahl j die Anzahl der
4 Matrizen, die zum linken Teilprodukt gehören. Ist M die Menge aller Kam-
5 merungen des Produkts A1 · · · An , so erhalten wir eine disjunkte Zerlegung
. .
6 M = M1 ∪ · · · ∪ Mn−1 ,
7 wobei Mj die Menge aller Klammerungen ist, bei der das linke Teilprodukt j
8 Matrizen enthält. Da linkes und rechtes Teilprodukt beliebig geklammert sein
9 können, ergibt sich mit Satz 21.1(c) |Mj | = aj · an−j , wobei wir (wie oben
10 eingeführt) an := |M | schreiben. Dies ergibt mit Satz 21.1(b) die gewünschte
11 Rekursionsformel
Xn
12 an = aj an−j (n ≥ 2), (22.4)
j=0
13 wobei wir a0 := 0 gesetzt haben. Die Folge der an ist durch (22.4) und a0 = 0,
14 a1 = 1 eindeutig bestimmt.
15 Bevor wir eine explizite Formel für die an herleiten, wollen wir uns ver-
16 gewissern, dass unsere beiden Zählprobleme wirklich dieselbe Lösung haben.
17 Dies bedeutet, dass an die Anzahl der Triangulierungen eines (n + 1)-Ecks
18 sein sollte. Wenn wir bn für die Anzahl der Triangulierungen eines (n + 1)-
19 Ecks schreiben und b0 := 0, b1 := 1 setzen, so ist die Rekursionsformel (22.4)
20 für die bn nachzuweisen.
21 Wir nummerieren die Ecken unseres (n + 1)-Ecks mit 1, 2, . . . , n + 1. Bei
22 jeder Triangulierung ist die Kante zwischen den Punkten n und n + 1 Be-
23 standteil von genau einem Dreieck. Die dritte Ecke dieses Dreiecks sei die
24 Ecke j, also j ∈ {1, . . . , n − 1}. Indem wir die Trianguliereungen nach dem
25 Wert von j sortieren, erhalten wir eine disjunkte Zerlegung der Menge aller
26 Triangulierungen. Für n = 6 sieht diese wie folgt aus:
Erzeugende Funktionen 181
1 1 1
2 2 2
7 7 ? 7
?
? 3 3 3
?
?
6 6 6
4 4 4
5 5 5
j=1 j=2 j=3
1
1 1
2 2
7 7
?
3 ? 3
6 ? 6
4 4
5 5
j=4 j=5
3
4 Die Fragezeichen deuten dabei an, dass in den m-Ecken ober- und unter-
5 halb des gewählten Dreiecks beliebige Triangulationen vorgenommen wer-
6 den können. Genauer haben wir oberhalb ein (j + 1)-Eck und unterhalb ein
7 (n − j + 1)-Eck, wobei es für j = 1 bzw. j = n − 1 kein m-Eck ober- bzw.
8 unterhalb gibt. Für die Anzahl bn der Triangulationen des (n+1)-Ecks ergibt
9 sich damit die Formel
n−2
X n
X
10 bn = bn−1 + bj bn−j + bn−1 = bj bn−j (n ≥ 2),
j=2 j=0
Diese Formel lässt sich vereinfachen, und das geht am besten, wenn man die
Folge der an verschiebt, indem man cn := an+1 setzt. Für n ≥ 0 gilt
Qn
−(−4)n+1 i=0 (1/2 − i)
−1 1/2
cn = (−4)n+1 = =
2 n+1 2(n + 1)!
Qn Qn Qn Qn
−2n+1 i=0 (2i − 1) 2n i=1 (2i − 1) (2i) i=1 (2i − 1)
= = i=1
2(n + 1)! (n + 1)! n!(n + 1)!
(2n)! 1 2n
= 2
= .
(n + 1)(n!) n+1 n
10 Die Zahl cn heißt die n-te Catalan-Zahl. Die Folge der Catalan-Zahlen
11 beginnt mit
12 c0 = 1, c1 = 1, c2 = 2, c3 = 5, c4 = 14, c5 = 42, . . .
16 an, auf wieviele Arten man ein Produkt von n + 1 nicht kommutierenden
17 Matrizen klammern kann, und auf wieviele Arten man ein regelmäßiges (n +
18 2)-Eck triangulieren kann.
19 Die zwei Anwendungsbeispiele, anhand derer wir die Catalan-Zahlen ein-
20 geführt haben, reichen nicht aus, um deren Wichtigkeit erahnen zu lassen.
21 Tatsächlich gehören sie zu den Stars“ der Kombinatorik, wie man in den
”
22 Lehrbüchern von Stanley (R.P. Stanley, Enumerative Combinatorics, Band 1
Erzeugende Funktionen 183
3 Bis jetzt haben wir die gesamte Theorie über beliebigen Körpern entwickelt.
4 Dabei hat jeglicher Begriff von Abstand“ gefehlt. Die Einführung eines
”
5 Abstandsbegriffs ist über allgemeinen Körpern auch nicht (in geometrisch
6 sinnvoller Weise) möglich. Nun spezialisieren wir den Grundkörper zu R
7 oder C und führen das Skalarprodukt ein. Mit diesem werden dann Längen,
8 Abstände und auch Winkel definiert. Schließlich wenden wir uns nochmal der
9 Diagonalisierbarkeit von Matrizen zu.
10 23 Skalarprodukte
x1
!
11
n
Auf R ist das Standard-Skalarprodukt zweier Vektoren v = .. und
.
xn
y1 !
12 w= .. ∈ Rn durch
.
yn
n
X
13 hv, wi := xi yi (= v T · w) ∈ R
i=1
14 definiert. Achtung: Die Notation ist anfällig für Verwechselungen mit dem
15 Erzeugnis!
16 Es gelten die folgenden Regeln:
17 (a) Für alle u, v, w ∈ Rn und a ∈ R gelten:
1 und
2 hu + a · v, wi = hu, wi + a · hv, wi.
3 (Man sagt auch, dass das Skalarprodukt bilinear ist.)
4 (b) Für v, w ∈ Rn gilt
5 hv, wi = hw, vi.
6 (Man sagt auch, dass das Skalarprodukt symmetrisch ist.)
7 (c) Für v ∈ Rn mit v 6= 0 gilt
8 hv, vi > 0.
9 (Man sagt auch, dass das Skalarprodukt positiv definit ist.)
10 Wir nehmen dies zum Anlass für folgende Definition:
11 Definition 23.1. Es sei V ein reeller Vektorraum (d.h. ein Vektorraum über
12 R). Eine Abbildung
13 V × V → R, (v, w) 7→ hv, wi
31 hervor.
32 (4) Ebenso wie oben kann man
33 hv, vi = x1 y1 − x2 y2
Skalarprodukte 187
1 definieren und erhält ein Beispiel für eine nicht positiv definite, symme-
2 trische Bilinearform. /
3
25 z := a − bi ∈ C.
4 V × V → C, (v, w) 7→ hv, wi
5 heißt
6 (a) sesquilinear, falls für u, v, w ∈ V und a ∈ C die Regeln
8 und
9 hu + a · v, wi = hu, wi + a · hv, wi
10 gelten;
11 (b) hermitesch, falls für v, w ∈ V die Regel
12 hv, wi = hw, vi
13 gilt;
14 (c) positiv definit, falls für v ∈ V \ {0}
16 gilt.
17 Man spricht dann auch von einer Sesquilinearform bzw. einer hermite-
18 schen Form. Eine positiv definite, hermitesche Sesquilinearform heißt ein
19 komplexes Skalarprodukt.
20 Ein komplexer Vektorraum zusammen mit einem komplexen Skalarprodukt
21 heißt ein unitärer Raum.
22 Anmerkung. Man drückt die Bedingung der Sesquilinearität auch aus, in-
23 dem man sagt, dass die Form linear im zweiten und semilinear im ersten
24 Argument ist. Einige Autoren treffen die umgekehrte Konvention, indem sie
25 Linearität im ersten und Semilinearität im zweiten Argument fordern. /
26 Beispiel 23.4. (1) V = Cn mit dem Standardprodukt (23.1) ist ein unitärer
27 Raum.
28 (2) Für reelle Zahlen a < b sei V := C([a, b], C) der Vektorraum aller stetiger
29 Funktionen [a, b] → C auf dem abgeschlossenen Intervall [a, b] ⊆ R. Durch
Z b
30 hf, gi := f (x)g(x)dx
a
4 AT = A.
18 Hierbei gilt Gleichheit genau dann, wenn v und w linear abhängig sind.
19 Beweis. Wir können w 6= 0 annehmen, da für w = 0 die Ungleichung und die
20 Zusatzbehauptung erfüllt sind.
21 Für a ∈ R oder (im Falle eines komplexen Vektorraums) a ∈ C gilt
23 Dies liefert die Ungleichung und zeigt, dass genau dann Gleichheit gilt, wenn
hw,vi
24 v = ||w|| 2 · w. Die lineare Abhängigkeit ist also notwendig für die Gleichheit.
hw, vi a||w||2
26 = = a,
||w||2 ||w||2
190 Skalarprodukte
1 also Gleichheit. t
u
2 Nun können wir die wichtigsten Eigenschaften der Länge und des Abstands
3 beweisen.
4 Satz 23.7. Für alle u, v, w ∈ V und a ∈ R bzw. a ∈ C gelten:
5 (a) Falls v 6= 0, so folgt ||v|| > 0.
6 (b) ||a · v|| = |a| · ||v||.
7 (c) ||v + w|| ≤ ||v|| + ||w|| (Dreiecksungleichung).
8 (d) Falls v 6= w, so folgt d(v, w) > 0.
9 (e) d(v, w) = d(w, v).
10 (f ) d(u, w) ≤ d(u, v) + d(v, w) (Dreiecksungleichung).
Beweis. Die Teile (a), (b), (d) und (e) sind unmittelbar klar. Für den Nach-
weis von (c) rechnen wir:
||v + w||2 = ||v||2 + hv, wi + hw, vi + ||w||2 = ||v||2 + 2 Re (hv, wi) + ||w||2
≤ ||v||2 + 2 |hv, wi| + ||w||2 ≤ ||v||2 + 2||v|| · ||w|| + ||w||2
Proposition 23.6
2
= (||v|| + ||w||) ,
13 d(u, w) = ||u − w|| = ||u − v + v − w|| ≤ ||u − v|| + ||v − w|| = d(u, v) + d(v, w)
(c)
14 erbracht. t
u
15 Wir nehmen diesen Satz zum Anlass, ein paar Begriffe zu erwähnen, die
16 in dieser Vorlesung nicht weiter vorkommen werden.
17 Anmerkung 23.8. (a) Ein normierter Vektorraum ist ein reeller oder
18 komplexer Vektorraum V mit einer Abbildung
19 V → R≥0 , v 7→ ||v||,
22 d: V × V → R≥0 ,
23 die (d)–(f) aus Satz 23.7 erfüllt. Die Abbildung d heißt dann eine Metrik
24 auf V .
25 (c) Sobald man einen Abstandsbegriff hat, kann man von konvergenten Fol-
26 gen und von Cauchy-Folgen sprechen. Vollständigkeit bedeutet, dass jede
27 Cauchy-Folge konvergent ist. Ein Banachraum ist ein vollständiger nor-
28 mierter Raum. Ein Hilbertraum ist ein vollständiger euklidischer oder
29 unitärer Raum. /
Skalarprodukte 191
10 (2) Ein Beispiel für eine Metrik, die nicht von einer Norm kommt, ist die
11 Hamming-Metrik auf Rn (oder K n mit einem Körper K), definiert durch
26 definiert. Der Nachweis der Vollständigkeit von `2 ist nicht ganz einfach.
27 /
28
hv, wi 1
4 =√ ,
||v|| · ||w|| 2
5 also beträgt der Winkel π/4. /
6 In unitären Räumen lässt sich kein sinnvoller Winkelbegriff definieren,
7 man kann aber (ebenso wie in euklidischen Räumen) davon sprechen, dass
8 zwei Vektoren senkrecht aufeinander stehen. Dies ist Inhalt der folgenden
9 Definition.
10 Definition 23.11. Es sei V ein euklidischer oder unitärer Raum.
11 (a) Zwei Vektoren v, w ∈ V heißen orthogonal (gleichbedeutend: senk-
12 recht), falls
13 hv, wi = 0.
14 (b) Eine Menge S ⊆ V heißt ein Orthogonalsystem, falls je zwei Vektoren
15 v, w ∈ S mit v 6= w orthogonal sind.
16 (c) Ein Orthogonalsystem S ⊆ V heißt ein Orthonormalsystem, falls
17 zusätzlich alle Vektoren v ∈ S die Länge ||v|| = 1 haben.
18 (d) Ein Orthonormalsystem S ⊆ V heißt Orthonormalbasis, falls es
19 zusätzlich eine Basis ist.
20 (e) Zu einem Unterraum U ⊆ V heißt
5 a1 v1 + · · · + an vn = 0
9 Wegen vj 6= 0 sind also sind alle aj = 0, und die lineare Unabhängigkeit ist
10 bewiesen.
11 Die zweite Aussage folgt mit Korollar 10.15(a). t
u
12 Orthonormalbasen haben einige günstige Eigenschaften. Ist beispielswei-
13 se S = {v1 , . . . , vn } eine Orthonormalbasis eines endlich-dimensionalen eu-
14 klidischen oder unitären Raums und v ∈ V , so sind die Skalarprodukte
15 hvi , vi genau die Koordinaten von v bezüglich der Basis S. Gilt nämlich
16 v = a1 v1 + · · · + an vn , so folgt
* n
+ n
X X
17 hvi , vi = vi , a j vj = aj hvi , vj i = ai hvi , vi i = ai .
j=1 j=1
26 (1) Setze m := 0.
27 (2) Für i = 1, . . . , k führe Schritte (3) und (4) aus.
28 (3) Setze
Xm
29 wi := vi − huj , vi i · uj . (23.2)
j=1
1
1 um := · wi .
||wi ||
8 und
9 hv1 , . . . , vk−1 i = hu1 , . . . , um i, (23.4)
10 wobei m das aktuelle“ m nach k − 1 Schleifendurchläufen ist. Aus (23.2)
”
11 folgt für i ≤ m
m
X
12 hui , wk i = hui , vk i − huj , vk i · hui , uj i = hui , vk i − hui , vk i = 0.
(23.3)
j=1
24 und
Skalarprodukte 195
4/5
1
1 u2 = · w2 = 0 .
||w2 ||
−3/5
Der dritte Schritt liefert
w3 = v3 − hu1 , v3 i · u1 − hu2 , v3 i · u2 =
1 3/5 4/5 0
0 − 11 2
· 0 + · 0 = 0 .
5 5
2 4/5 −3/5 0
17 Eine unitäre oder orthogonale Abbildung ϕ ist injektiv, denn aus ϕ(v) = 0
18 für v ∈ V folgt hv, vi = hϕ(v), ϕ(v)i = 0, also v = 0. Weiter gilt
19 ||ϕ(v)|| = ||v||
1 (2) Auf dem Raum V = C([a, b], C) der stetigen Funktionen eines Intervalls
2 [a, b] in C wird durch ϕ: V → V, f 7→ fˆ mit fˆ(x) = f (a + b − x) eine
3 unitäre Abbildung gegeben. /
4 Was sind die orthogonalen bzw. unitären Abbildungen V → V für V = K n
5 mit K = R bzw. K = C? Ist ϕ eine solche, so muss ϕ jede Orthonormalbasis
6 wieder auf eine Orthonormalbasis abbilden. Ist A ∈ K n×n die Darstellungs-
7 matrix von ϕ bezüglich der Standardbasis (also ϕ = ϕA ), so folgt, dass die
8 Spalten von A eine Orthonormalbasis von V bilden. Dies kann man aus-
9 drücken durch die Bedingungen
10 AT · A = I n (für K = R) (23.5)
11 bzw.
T
12 A · A = In (für K = C), (23.6)
13 wobei A durch komplexe Konjugation aller Einträge aus A hervorgeht. (Die
14 zweite Bedingung umfasst eigentlich die erste, da A = A für K = R.) Ist
15 umgekehrt A ∈ K n×n eine Matrix, die (23.5) bzw. (23.6) erfüllt, so folgt für
16 u, v ∈ V
T
17 hϕA (u), ϕA (v)i = (Au)T · (Av) = uT A Av = hu, vi.
18 Dies bedeutet, dass genau die Matrizen mit (23.5) bzw. (23.6) orthogonale
19 bzw. unitäre Abbildungen V → V definieren. Wir nehmen dies zum Anlass
20 für die folgende Definition.
21 Definition 23.20. (a) Eine Matrix A ∈ Rn×n heißt orthogonal, falls
22 sie (23.5) erfüllt. Dies ist gleichbedeutend damit, dass die Spalten von
23 A eine Orthonormalbasis von Rn bilden, und wegen A · AT = In auch
24 damit, dass die Zeilen von A eine Orthonormalbasis von Rn bilden.
25 (b) Eine Matrix A ∈ Cn×n heißt unitär, falls sie (23.6) erfüllt. Dies ist
26 gleichbedeutend damit, dass die Spalten von A eine Orthonormalbasis von
T
27 Cn bilden, und wegen A · A = In auch damit, dass die Zeilen von A eine
n
28 Orthonormalbasis von C bilden.
29 (c) Die Untergruppe
6 ϕe : V → V, v 7→ v − 2he, vi · e
7 die Spiegelung entlang e. Der folgende Satz sagt aus, dass die orthogonale
8 Gruppe On durch Spiegelungen erzeugt werden.
9 Satz 23.21. Es sei V ein euklidischer oder unitärer Raum.
10 (a) Jede Spiegelung ϕe (mit e ∈ V , ||e|| = 1) ist eine orthogonale bzw. unitäre
11 Abbildung.
12 (b) Ist V euklidisch und n = dim(V ) < ∞, so lässt sich jede orthogona-
13 le Abbildung ϕ: V → V als Komposition von höchstens n Spiegelungen
14 schreiben. Die orthogonale Gruppe wird also durch Spiegelungen erzeugt.
Beweis. (a) Es ist klar, dass ϕe linear ist. Für v, w ∈ V gilt
D E
hϕe (v), ϕe (w)i = v − 2he, vi · e, w − 2he, wi · e
= hv, wi − 2he, wihv, ei − 2he, vihe, wi + 4he, vihe, wi
= hv, wi,
folgt
hϕ(v) − v, vi
ϕe (v) = v − 2 · (ϕ(v) − v)
||ϕ(v) − v||2
hϕ(v), vi − ||v||2
=v−2 · (ϕ(v) − v)
||ϕ(v)||2 − 2hϕ(v), vi + ||v||2
= v + (ϕ(v) − v) = ϕ(v).
5 ϕ0 |U = ϕe1 ◦ · · · ◦ ϕek ,
wobei die ϕei hier Spiegelungen auf U sind. Wenn wir die ϕei als Spiege-
lungen von V auffassen, gilt ϕei (v) = v wegen ei ∈ U . Es sei nun w ∈ V .
Mit a := hv,wi
hv,vi gilt dann w − av ∈ U , also
7 24 Der Spektralsatz
1 Setzt man speziell w = ψ(v) − ψ 0 (v) ein, so ergibt sich ψ(v) = ψ 0 (v), also
2 ψ = ψ0 .
3 (b) Für v, w ∈ V gilt
9 also ϕ∗h = ϕh .
10 (2) Es sei V wie oben und x0 ∈ [a, b] fest gewählt. Wir betrachten ϕ: V →
11 V, f 7→ f (xo ), wobei f (x0 ) als konstante Funktion angesehen wird. Für
12 f, g ∈ V gilt
Z b Z b
13 hf, ϕ(g)i = f (x)g(x0 )dx = g(x0 ) f (x)dx
a a
8 ϕ ◦ ϕ∗ = ϕ∗ ◦ ϕ
9 gilt.
10 (b) Eine Matrix A ∈ Rn×n bzw. A ∈ Cn×n heißt normal, falls
T T
11 A·A =A ·A
4 Eλ (ϕ) = Eλ (ϕ∗ ).
12 ||ϕ∗ (v)||2 = hv, ϕ (ϕ∗ (v))i = hv, ϕ∗ (ϕ(v))i = hv, ϕ∗ (λv)i = λhv, ϕ∗ (v)i
13 und
14 hϕ∗ (v), vi = hv, ϕ(v)i = hv, λvi = λ · ||v||2 ,
15 also
16 ||ϕ∗ (v) − λv||2 = ||ϕ∗ (v)||2 − λhϕ∗ (v), vi − λhv, ϕ∗ (v)i + |λ|2 ||v||2 = 0.
29 wobei die zweite Gleichheit aus (a) folgt. Dies schließt den Beweis ab. t
u
30 Satz 24.8 (Spektralsatz für unitäre Räume). Es seien V ein endlich-dimen-
31 sionaler unitärer Raum und ϕ: V → V eine normale Abbildung. Dann besitzt
32 V eine Orthonormalbasis B, die aus Eigenvektoren von ϕ besteht. Genauer:
202 Der Spektralsatz
14 (In Wirklichkeit gilt Gleichheit, aber das wird hier nicht gebraucht.) Wäre
15 L⊥ 6= {0}, so enthielte L⊥ wegen der algebraischen Abgeschlossenheit von C
16 und der ersten Aussage von Lemma 24.7(c) einen Eigenvektor von ϕ, was der
17 zweiten Aussage von Lemma 24.7(c) widerspräche. Es folgt L⊥ = {0}, also
18 liefert die obige Dimensionsungleichung L = V . t
u
19 Korollar 24.9 (Spektralsatz für komplexe normale Matrizen). Sei A ∈ Cn×n
20 normal. Dann gibt es eine unitäre Matrix S ∈ Un , so dass S −1 AS eine Dia-
T
21 gonalmatrix ist. Wegen S ∈ Un gilt S −1 AS = S AS.
22 Anmerkung 24.10. Es gilt auch die Umkehrung von Korollar 24.9: Sei
23 A ∈ Cn×n eine Matrix, für die S ∈ Un existiert, so dass S −1 AS = D ei-
24 ne Diagonalmatrix ist. Dann folgen
T T T
25 A = SDS −1 = SDS und A = SDS ,
26 also
T T T T T
27 A · A = SDS SDS = SDDS = A · A.
28 Damit ist A normal. /
29 Nun wenden wir uns der Frage zu, was im reellen Fall passiert.
30 Lemma 24.11. Es seien A ∈ Rn×n , λ ∈ C und v ∈ Cn mit A · v = λv.
31 (a) Für den Vektor v ∈ Cn , der aus v durch Konjugation aller Koordinaten
32 entsteht, gilt
33 A · v = λv.
34 (b) Für den Real- und Imaginärteil von v gelten
1 und
2 A · Im(v) = Im(λ) Re(v) + Re(λ) Im(v).
3 Beweis. (a) Dies ergibt sich aus
4 A · v = A · v = A · v = λv = λv.
(b) Es gilt
A · Re(v) + iA · Im(v) = A · v = λv
= Re(λ) Re(v) − Im(λ) Im(v) + i (Im(λ) Re(v) + Re(λ) Im(v)) .
5 Die Behauptung ergibt sich durch Vergleich von Real- und Imaginärteil.
6 t
u
7 Korollar 24.12 (Spektralsatz für reelle normale Matrizen). Sei A ∈ Rn×n
8 normal. Dann gibt es eine orthogonale Matrix S ∈ On , so dass
λ1 0
.
..
λr
S −1 AS = a1 −b1
9
b1 a1
..
.
as −bs
0 bs as
15 mit λi ∈ R, µi .νi ∈ C, so dass Im(µi ) < 0 und Im(νi ) > 0. Aus der eindeutigen
16 Primzerlegung folgt durch komplexe Konjugation wegen χA = χA
t
Y s
Y
17 (x − νi ) = (x − µi ),
i=1 i=1
18 also s = t und
19 n = deg(χa ) = r + s + t = r + 2s.
20 Wir wenden Satz 24.8 auf ϕA : Cn → Cn an und erhalten Vektoren u1 , . . . , ur , v1 , . . . , vs ∈
21 Cn mit
204 Der Spektralsatz
2 für alle i, j. (Satz 24.8 liefert auch Eigenvektoren für die Eigenwerte νi , aber
3 die brauchen wir hier nicht.) Die ui können aus beliebigen Orthonormalbasen
4 der Eigenräume Eλi gewählt werden, also können wir ui ∈ Rn annehmen. Für
5 i = 1, . . . , s setzen wir
√ √
6 wi := 2 Re(vi ), wi0 := 2 Im(vi ), ai := Re(µi ) und bi := − Im(µi ).
7 Falls
8 B := {u1 , . . . , ur , w1 , w10 , . . . , ws , ws0 }
9 eine Basis von Cn bildet, so folgt aus Lemma 24.11(b), dass DB (ϕA ) genau die
10 im Korollar angegebene Block-Diagonalmatrix ist, also folgt die Behauptung
11 mit S := (v1 , . . . , vr , w1 , w10 , . . . , ws , ws0 ) ∈ GLn (R). Wegen n = |B| genügt es
12 nach Satz 23.13 zu zeigen, dass B ein Orthonormalsystem ist, und dann folgt
13 auch S ∈ On . Für j ∈ {1, . . . , r} und k ∈ {1, . . . , s} gilt
√
14 huj , wk i + ihuj , wk0 i = 2huj , vk i = 0,
26 Wegen bi > 0 folgt insbesondere |ai | < 1, also ai = cos(αi ) mit 0 < αi < π
27 und bi = sin(αi ). Für α ∈ R schreiben wie
cos(α) − sin(α)
28 D(α) := .
sin(α) cos(α)
Der Spektralsatz 205
1 und nennen dies ein Drehkästchen. Es beschreibt eine Drehung der Ebene
2 R2 um den Winkel α mit festgehaltenem Nullvektor. Wir formulieren unser
3 Resultat geometrisch.
4 Korollar 24.13. Es sei ϕ: Rn → Rn eine orthogonale Abbildung. Dann gibt
5 es eine Orthonormalbasis B, bezüglich der die Darstellungmatrix von ϕ die
6 Block-Diagonalgestalt
1 0
..
.
1
−1
. ..
7 DB (ϕ) =
−1
D(α1 )
. ..
0 D(αs )
3 DT = S T AT S = S T AS = D,
4 d.h. D ist symmetrisch. Hieraus folgt, dass in D kein Block der Form
ai −bi
5
bi ai auftritt, da ein solcher wegen bi > 0 der Symmetrie widerspre-
6 chen würde.
T
7 (b) Wegen Korollar 24.9 gibt es S ∈ Un mit S AS = diag(λ1 , . . . , λn ) =: D.
8 Es folgt
T T T T
9 D = D = S A S = S AS = D
10 also λi ∈ R für alle i. t
u
13 Damit wissen wir schon, dass A zu diag(1, 1, 4) ähnlich ist. Wir wollen eine
14 orthogonale Transformationsmatrix ausrechnen. Hierfür müssen wir die
15 Eigenräume bestimmen. Der Eigenraum E1 zum Eigenwert 1 ergibt sich
16 als Lösungsraums des homogenen LGS mit Matrix A − I3 . Wir erhalten
D 1 1 E
17 E1 = 0 , −1 .
−1 0
2 also
1
1
3 u2 = √ −2 .
6 1
4 Nun berechnen wir E4 und erhalten durch Lösen des entsprechenden LGS
5 (oder durch die Beobachtung, dass alle Zeilensummen von A gleich 4 sind)
D 1 E
6 E4 = 1 .
1
9 Damit gilt
√1 √1 √1
02 √ 6 3
−2 √1
10 S= 6 3
∈ O3 (R)
−1 √1 √1
√
2 6 3
11 und
100
12 S −1 AS = 0 1 0 .
004
13 (2) Es stellt sich die Frage, ob Korollar 24.15(a) auch über anderen Körpern
14 außer R gilt, z.B. über C. Um diese zu beantworten, betrachten wir die
15 symmetrische Matrix
1 i
16 A= ∈ C2×2 .
i −1
7 Hieraus folgt λ ∈ R. /
8 Korollar 24.15(a) hat beispielsweise physikalische Anwendungen. Zu einem
9 starren Körper betrachtet man den sogenannten Trägheitstensor. Dieser ist
10 eine Matrix in I ∈ R3×3 , die die Winkelgeschwindigkeit (als Vektor) mit
11 dem Drehimpuls verbindet, ähnlich wie die Masse die Geschwindigkeit mit
12 dem Impuls verbindet. Es stellt sich heraus, dass I symmetrisch ist. Also
13 liefert Korollar 24.15, dass es für jeden starren Körper drei senkrecht zuein-
14 ander stehende Achsen gibt, so dass bei einer Drehung um diese Achsen die
15 Drehgeschwindigkeit und der Drehimpuls in dieselbe Richtung zeigen. Diese
16 Achsen heißen Hauptträgheitsachsen. Wegen des Drehimpulserhaltungssatzes
17 bedeutet dies, dass Drehungen um die Hauptträgheitsachsen schlingerfrei“
”
18 möglich sind. Bei konstantem Drehimpuls ist eine Drehung um die Achse mit
19 dem größten Eigenwert (= Hauptträgheitsmoment) die energetisch günstigste
20 und daher stabilste.
21 Wir haben bereits im Zusammenhang mit symmetrischen Bilinearformen
22 und hermiteschen Sesquilinearformen von positiver Definitheit gesprochen.
23 Nun übertragen wir dies auf Matrizen. Da alle Eigenwerte einer symmetri-
24 schen (reellen) oder hermiteschen Matrix oder reell sind, können wir fragen,
25 ob sie positiv sind.
26 Definition 24.18. Sei A ∈ Rn×n symmetrisch bzw. A ∈ Cn×n hermitesch.
27 A heißt
28 • positiv definit, falls alle Eigenwerte von A positiv sind;
29 • positiv semidefinit, falls alle Eigenwerte von A positiv oder Null sind;
30 • negativ definit, falls alle Eigenwerte von A negativ sind;
31 • negativ semidefinit, falls alle Eigenwerte von A negativ oder Null sind;
32 • indefinit, falls es sowohl positive als auch negative Eigenwerte gibt.
33 Satz 24.19. Eine symmetrische bzw. hermitesche Matrix A ∈ Rn×n bzw.
34 A ∈ Cn×n ist genau dann positiv definit, wenn für alle v ∈ Rn \ {0} bzw.
35 v ∈ Cn \ {0} gilt:
36 hv, A · vi > 0.
37 Die Bedingung bedeutet, dass die durch A definierte Bilinearform bzw. Ses-
38 quilinearform positiv definit ist. A ist positiv semidefinit, wenn hv, A · vi ≥ 0
39 gilt. Entsprechendes gilt für negativ (semi-)definit.
40 Beweis. Wegen Korollar 24.15 gibt es S ∈ On bzw. S ∈ Un mit
Singulärwertzerlegung und Moore-Penrose-Inverse 209
λ1 0
T ..
S AS = =: D,
1 .
0 λn
2 wobei die λi ∈ R die Eigenwerte von A sind. Wegen der Invertierbarkeit von
x1
!
T .. T
3 S ist für jeden Vektor v ∈ Rn \ {0} bzw. v ∈ Cn \ {0} auch . := S · v
xn
4 ungleich 0, und jeder Vektor aus Rn \ {0} bzw. Cn \ {0} tritt als ein solches
T
5 S · v auf. Es gilt
x1 n
T T .. X
6 hv, A · vi = v SDS v = (x1 , . . . , xn )D . = λi |xi |2 .
xn i=1
−b(x2 − x4 )
12 hermitesch. Außerdem ist sie gemäß Satz 24.19 positiv semidefinit, denn für
13 v ∈ Cn gilt
T T T
14 hv, A Avi = v T A Av = Av Av = hAv, Avi ≥ 0.
λn
18 mit λi ∈ R≥0 , die wir so anordnen können, dass λ1 ≥ · · · ≥ λn . Es sei r
19 maximal mit λr > 0. (Später werden wir r = rg(A) sehen.) Für i ∈ {1, . . . , r}
20 setzen wir p
21 σi := λi .
22 Wir schreiben v1 , . . . , vn für die Spalten von V , und für i ∈ {1, . . . , r} setzen
23 wir
24 ui := σi−1 Avi ∈ Cm (25.3)
Sind i, j ∈ {1, . . . , r}, so folgt
T T
hui , uj i = (σi σj )−1 Avi Avj = (σi σj )−1 vi T A Avj
= (σi σj )−1 λi δi,j = δi,j ,
(25.2)
Singulärwertzerlegung und Moore-Penrose-Inverse 211
4 U := (u1 , . . . , um ) ∈ Um .
6 ui T Avj = ui T σj uj = δi,j σj .
(25.3)
10 ui T Avj = 0.
T T
11 damit ist (25.1) gezeigt. Es folgt nun auch A = U ΣV . Da U und V reguläre
12 Matrizen sind, folgt hieraus
13 rg(A) = rg(Σ) = r.
1 wobei Gleichheit gilt, wenn v die erste Spalte von V ist. Es folgt
||Av|| n
2 σ1 = max v ∈ C \ {0} =:|| A ||s .
||v||
3 Die mit ||A||s bezeichnete Zahl nennt man die Spektralnorm von A. Wir
4 haben also die Gleichheit von Spektralnorm und dem ersten Singulärwert
5 gezeigt. Die Spektralnorm ist eine Norm auf Cm×n im Sinne von Anmer-
6 kung 23.8(a), die zusätzlich submultiplikativ ist, d.h. es gilt die Regel
7 ||AB||s ≤ ||A||s · ||B||s für A ∈ Cm×n , B ∈ Cn×l .
T
8 (c) Ist A ∈ Cn×n quadratisch und A = U ΣV eine Singulärwertzerlegung,
9 so folgt
T T
10 A = U V V ΣV = B · C
T T
11 mit B = U V ∈ Un unitär und C = V ΣV hermitesch und positiv
12 semidefinit (definit genau dann, wenn A ∈ GLn (C)). Man nennt eine
13 Zerlegung A = BC mit B unitär und C hermitesch und positiv semide-
14 finit eine Polarzerlegung von A. /
15 Beispiel 25.3. Die Matrix
1 2
16 A= ∈ R2×2
−2 −3.99
17 hat den Rang 2, ist aber nahe an einer Matrix vom Rang 1. Dies wird wider-
18 gespiegelt durch die Singulärwerte, die sich näherungsweise zu
20 ergeben. Ersetzt man −3.99 in A durch −4, so sieht man, dass für v = ( 12 )
21 (der kein Eigenvektor ist) die Spektralnorm 5 erreicht“ wird. /
”
22 Die Singulärwertzerlegung spielt in der numerischen Mathematik eine
23 große Rolle. Weitere Anwendungen gibt es beispielsweise in der Bildkompres-
24 sion. Ein (digitales) Bild mit m × n Pixeln lässt sich durch eine m × n-Matrix
25 A darstellen. Bei vielen Bildern weist die Folge der Singulärwerte (σi ) einen
26 dramatischen Abbruch auf, d.h. ab einem gewissen (kleinen) s sind die Werte
27 der σi für i > s extrem klein im Verhältnis zu den σi mit i ≤ s. Setzt man in
28 der Singulärwertzerlegung
T
29 A = U ΣV
30 alle σi mit i > s gleich Null, so erhält man eine neue Matrix Σ 0 , so dass der
T
31 Übergang von A zu A0 := U Σ 0 V zwar einen Datenverlust darstellt, der aber
32 im Bild nicht sichtbar ist. Der Gewinn ist, dass man für das Auswerten von
T
33 A0 = U Σ 0 V nur die ersten s Spalten von U Σ 0 und von V speichern muss,
34 insgesamt also
35 s · (n + m) statt m · n
Singulärwertzerlegung und Moore-Penrose-Inverse 213
1 Beweis. Der Nachweis von (a) und (b) geschieht durch direktes Nachprüfen
2 der Eigenschaften (1)–(3) in Definition 25.4. Für den Nachweis von (c) ma-
T
3 chen wir folgende Vorbemerkung. Für eine Matrix B ∈ Cm×n mit B · B = 0
4 folgt
T
5 ||Bv||2 = v T B Bv = 0 für alle v ∈ Cn ,
6 also B = 0. Es seien nun A+ , A
e ∈ Cn×m zwei Moore-Penrose-Inverse von A.
7 Dann gelten
T
8 (A+ A − AA)
e (A+ A − AA)
e = (A+ A − AA)
e 2 = A+ A − A+ A − AA
e + AA
e =0
(3) (1)
9 und
T
10
e (AA+ − AA)
(AA+ − AA) e = (AA+ − AA)
e 2 = AA+ − AA
e − AA+ + AA
e = 0,
(3) (1)
12 A+ = A+ AA+ = AAA
e + = AA
e Ae = A,
e
(2) (2)
29 Umgekehrt nehmen wir an, dass Bild und Kern von ϕ senkrecht aufein-
30 ander stehen. Für v, w ∈ V folgt
26 A · (In − A+ A) = A − AA+ A = A − A = 0
28 (In − A+ A)x = In x = x,
1 Bild(ϕ) ⊆ {Ax | x ∈ Cn } =: U,
2 und umgekehrt gilt für Ax ∈ U
4 Also ist ϕ eine orthogonale Projektion auf U . Damit folgt aus Satz 25.6(b)
5 die behauptete Ungleichung.
Für den Beweis der zweiten Behauptung in (b) sei x ∈ Cn mit ||Ax−b|| =
||AA+ b − b||. Aus der Eindeutigkeit des Vektors aus U mit minimalem
Abstand zu b folgt Ax = AA+ b, also A+ b − x ∈ L. Weiter gilt:
6 wobei die zweite Äquivalent aus (c) und Satz 25.6(b) folgt. Dies liefert
7 die zweite Behauptung.
8 (a) Ist das lineare Gleichungssystem lösbar, so gibt es x ∈ Cn mit ||Ax−b|| =
9 0. Aus (b) folgt AA+ b = b und die Minimalität der Länge von A+ b unter
10 den Lösungen. t
u
11 Satz 25.5(b) enthält eine Methode zur Bestimmung der Moore-Penrose-
12 Inversen über die Singulärwertzerlegung, deren Berechnung aus dem Be-
13 weis von Satz 25.1 hervorgeht. Diese Methode ist numerisch stabil, aber
14 aufwändig. Eine einfachere Methode funktioniert wie folgt: Ist A ∈ Cm×n
15 mit r = rg(A), so lässt sich A zerlegen als
16 A=B·C
17 mit B ∈ Cm×r und C ∈ Cr×n , beide vom Rang r. Beispielsweise kann man r
18 linear unabhängige Spalten von A aussuchen und diese in B schreiben und
19 dann in C hineinkodieren“, wie sich die Spalten von A als Linearkombi-
”
20 nationen der Spalten von B ausdrücken. Aus Anmerkung 25.2(a) folgt die
21 Beziehung
T T
22 rg(A) = rg(A A) = rg(AA ),
23 angewandt auf B und C ergibt dies also die Invertierbarkeit der Produkte
T T
24 B B und von CC . Nun verifiziert man durch Überprüfung der Eigenschaf-
25 ten aus Definition 25.4, dass
T −1
T
T −1 T
26 A+ = C CC B B B (25.4)
27 gilt.
28 Beispiel 25.8. Bei
Diskrete Strukturen: Spektren von Graphen 217
2 3 −2
1 A := 3 5 −3 ∈ R3×3
−2 −3 2
2 ist die dritte Spalte gleich dem Negativen der ersten, also
2 3
1 0 −1
3 A= 3 5 · =: B · C.
01 0
−2 −3
8 liefert
−3
9 x = A+ b = 4
3
10 nach Satz 25.7(b) den kürzesten Vektor, dessen Produkt mit A möglichst nah
11 an b liegt. /
13 In diesem Abschnitt greifen wir nochmals die Graphentheorie auf und verbin-
14 den sie mit den Methoden der linearen Algebra, insbesondere aus Abschnitt
15 Abschnitt 24. Der Einfachheit halber betrachten wir wieder einfache Graphen
16 gemäß Definition 4.1. Ein Graph ist also ein Paar G = (V, E) mit V einer
17 endlichen, nicht leeren Menge von Knoten“ und E einer Menge
”
18 E ⊆ {{x, y} | x, y ∈ V, x 6= y}
19 von Kanten“.
”
20 Definition 26.1. Zwei Graphen G = (V, E) und G0 = (V 0 , E 0 ) heißen iso-
21 morph, falls es eine Bijektion f : V → V 0 gibt, so dass
16 V = {1, 2, 3, 4} und E = {{1, 2}, {2, 3}, {3, 4}, {1, 4}}
2 1
18
3 4
−1 0 −1 x
s s s
G G0
CS
s C S
C S
C S
s s s s s s
C S
20
21 (bei G ist der in der Mitte gezeichnete Punkt mit keinem verbunden), haben
22 beide das Spektrum −2, 0, 0, 0, 2. Sie sind aber nicht isomorph. Dies kann
23 man z.B. daran sehen, dass G0 zusammenhängend ist, G aber nicht. /
24 Zwei Graphen mit demselben Spektrum nennt man isospektral. Wir führen
25 nun eine Variante des Spektrums ein.
26 Definition 26.5. Es sei G ein Graph mit Knoten {x1 , . . . , xn } und Adja-
27 zenzmatrix
Pn A = (gi,j ) ∈ Rn×n . Für i = 1, . . . , n setzen wir di := deg(xi ) =
28
j=1 gi,j , den Grad des Knotens xi . Wir bilden die Matrix
(
n×n −gi,j falls i 6= j
29 L = (li,j ) ∈ R mit li,j = .
di falls i = j
6
3 4
G s s
G0
s
@
s s
@
@s b "
b "
@ b "
@ b"
s @s " b
" b
s" bs
@@ b "
b "
15
@s b s"
19 haben. G und G0 sind aber nicht isomorph. Dies kann man z.B. daran
20 sehen, dass G0 einen Knoten von Grad 1 enthält, G aber nicht. /
21 Man kann auch Beispiele nicht isomorpher Graphen finden, bei denen das
22 Spektrum und das Laplace-Spektrum übereinstimmen.
Diskrete Strukturen: Spektren von Graphen 221
1 Satz 26.7. Die Laplace-Matrix eines Graphen ist positiv semidefinit. Das
2 Laplace-Spektrum besteht also aus lauter nicht-negativen Zahlen.
Beweis. Es sei A = (gi,j ) ∈ Rn×n !die Adjazenzmatrix eines Graphen. Wir
x1
benutzen Satz 24.19. Für v = .. ∈ Rn gilt
.
xn
n
X n
X X
hv, L · vi = xi li,j xj = di x2i − gi,j xi xj =
i,j=1 i=1 i6=j
n X
X n n X
X n X
gi,j x2i − gi,j x2i + x2j − 2xi xj =
gi,j xi xj =
i=1 j=1 i=1 j=1 1≤i<j≤n
j6=i j6=i
X
gi,j (xi − xj )2 ≥ 0. (26.1)
1≤i<j≤n
3 t
u
4 Indem wir den obigen Beweis nochmal anschauen und analysieren, für
5 welche Vektoren v ∈ Rn die Gleichung hv, L · vi = 0 gilt, erhalten wir einen
6 interessanten Zusatz.
7 Satz 26.8. Die Anzahl der Zusammenhangskomponenten eines Graphen G
8 ist die Vielfachheit des Eigenwertes 0 im Laplace-Spektrum.
x1
!
9 Beweis. Für welche Vektoren v = .
.. ∈ Rn gilt hv, L · vi = 0? We-
xn
10 gen (26.1) muss xi = xj für alle i, j mit gi,j = 1 gelten. Wegen der Transi-
11 tivität der Gleichheitsbeziehung gilt dann auch automatisch xi = xj , wenn i
12 und j in derselben Zusammenhangskomponente von G liegen. Umgekehrt
13 kann man für jede Zusammenhangskomponente Zk eine Zahl αk ∈ R wählen
14 und dann für alle Knoten i ∈ Zk xi := αk setzen. So erhält man einen
15 Vektor v mit hv, L · vi = 0. Wir fassen zusammen: Mit
16 E0 := {v ∈ Rn | hv, L · vi = 0}
17 gilt
19 Warum ist dim(E0 ) die Vielfachheit des Eigenwertes 0 von L? Wegen Korol-
20 lar 24.15(a) gibt es eine Orthonormalbasis {v1 , . . . , vn } aus Eigenvektoren.
21 Also L · vi = λi vi mit λi ≥ 0 wegen Satz 26.7. Durch Umordnen Pn können wir
22 λ1 = · · · = λl = 0 und λi > 0 für i > l erreichen. Für v = i=1 yi vi ∈ Rn
23 folgt
222 Diskrete Strukturen: Spektren von Graphen
n
X n
X
1 hv, L · vi = yi λj yj hvi , vj i = λi yi2 ,
i,j=1 i=1
2 A/∼, 25 35 :⇐⇒, 8
3 A+ , 11, 213 36 ⇔, 5
4 A−1 , 99 37 || A ||s , 212
5 | A |, 23 38 AS , 56
6 | A |< ∞, 23 39 A ∩ B, 9
7 | A |= ∞, 23 40 AT , 75
8 A, 196 41 A · v, 97
9 a−1 , 48
10 (a1 , . . . , an ), 17 42 Bild(ϕ), 91
. .
11 A1 ∪ · · · ∪ An , 165 43 Bild(f ), 16
12 a · b, 47 44 b∗ , 162
13 a | b, 57 45 B ∗ , 162
14 ab, 47
15 A + B, 96 46 c · A, 96
16 A ≈ B, 135 47 C([a, b], C), 188
17 A · B, 97 48 C([a, b], R), 186
18 A . B, 20 49 char(R), 60
19 A ≺ B, 20 50 χA , 128
20 A ∼ B, 20
21 A ⊆ B, 8 51 D(α), 204
22 A $ B, 8 52 DB , 95
23 A × B, 14 53 DC,B , 95
24 A = B, 7 54 deg(f ), 60
25 (ai,j
), 75 55 deg(x), 39
a
26
k
, 166 56 δi,j , 61
A
27
k
, 171 57 det(A), 117
28 ∀,\ 5 58 diag(a1 , . . . , an ), 124
29 A, 9 59 dim(V ), 87
A∈M 60 d(v, w), 189
[
30 A, 10
A∈M 61 ei , 82
31 A \ B, 9 62 Ei,j , 125
32 an , 49 63 Eλ , 127
33 An , 17 64 ∈, 6
34 An , 118 65 ∃, 5
223
224 Notation
1 f −1 , 16 45 R≥0 , 16
2 F2 , 103 46 R/(a), 57
3 f (A0 ), 15 47 Re(z), 190
4 f |A0 , 17 48 rg(A), 80
5 f : A → B, 15 49 R[[x]], 176
6 f : A → B, x 7→ . . ., 15 50 R[x], 60
7 f −1 (B 0 ), 16
8 f (c), 62 51 hSi, 71
9 f ◦ g, 18 52 SA , 50
10 ϕA , 90 53 SB,B 0 , 100
11 ⇒, 5 54 sgn(σ), 116
12 Fp , 59 55 SLn (K), 124
13 f (x), 15 56 Sn , 50, 115
14 G0 , 44 57 U1 + U2 , 70
15 g ◦ f , 18 58
L1n⊕ · · · ⊕ Un , 111
U
16 ggT(a1 , . . . , an ), 142 59
Pni=1 Ui , 111
17 :=, 6 60
i=1 Ui , 111
18 GLn (K), 100 61 ∧, 5
19 GLn (R), 135
62 || v ||, 189
20 Hom(V, W ), 90 63 V /U , 109
64 hv1 , . . . , vn i, 71
21 idA , 17 65 V ∗ , 161
22 In , 98 66 V ∗∗ , 163
23 e, 48 67 v + U , 109
68 hv, wi, 185, 187
24 Kern(ϕ), 90 69 V ∼ = W , 91
25 Kern(ϕ), 52
26 K m×n , 75 70 w(σ), 116
27 K n , 68
28 K[x], siehe R[x] 71 [x]∼ , 25
72 bxc, 21
73 x, 58
29 ∅, 9
74 x∈ / A, 8
T 75 {x ∈ A | C(x)}, 8
30
S M, 9 76 x + Ra, 57
31 M , 10
77 xRy, 23
32 ma (λ), 129
78 (x, y), 14
33 mg (λ), 129 79 {x, y}, 10
80 x < y, 28
34 [n], 171 81 x = y, 7
35 {1, . . . , n}, 17 82 x > y, 28
36 N, 12 83 x ≥ y, 28
37 N>0 , 17 84 x ≤ y, 27
38 n!, 50 85 x | y, 24
39 ¬, 5 86 x 6= y, 8
n
, siehe a
40
k k 87 x ∼ y, 25
k
41 n , 166 88 x ≡ y mod a, 57
89 x ≡ y mod m, 26
42 ∨, 5
90 | z |, 187
43 P(A), 10 91 z, 187
44 ϕ∗ , 163, 198 92 Z/(m), 26
1 Index
2 Abbildung, 15 37 Basissatz, 86
3 Gleichheit, 15 38 Basiswechsel, 100–102
4 Abbildungsvorschrift, 15 39 Basiswechselmatrix, 100, 195
5 abelsch, 47 40 Bauer-Code, 109
6 Abstand, 189 41 Baum, 37, 37–41
7 abzählbar unendlich, 23 42 Bedingung, 8
8 additive Schreibweise, 49 43 Begleitmatrix, 149
9 Adjazenzmatrix, 218 44 beschränkt, siehe nach oben oder nach
10 adjungierte Abbildung, 198 45 unten beschränkt
11 adjunkte Matrix, 122 46 Bidualraum, 163
12 affiner Unterraum, 109 47 Bijektion, 20
13 ähnliche Matrizen, 101 48 bijektiv, 16
14 algebraisch abgeschlossen, 65, 152 49 Bild, 15, 16
15 algebraische Vielfachheit, 129, 154 50 Bild einer linearen Abbildung, 91
16 Algorithmus von Gauß, siehe Gauß- 51 Bildbereich, 15
17 Algorithmus 52 bilinear, 186
18 allgemeine lineare Gruppe, 100 53 Binomialkoeffizient, 167, 166–171
19 allgemeine Normalform, 149, 150 54 Binomialreihe, 177
20 Allquantor, 5 55 Blatt
21 alternierende Gruppe, 118 56 Graph, 39
22 antisymmetrisch, 24, 200 57 Block-Diagonalmatrix, 149
23 äquivalente Matrizen, 102, 135 58 Block-Dreiecksgestalt, 125
24 Äquivalenzklasse, 25
25 Äquivalenzrelation, 25, 25–27, 37, 57, 59 Cantor, Georg, 6, 22
26 102, 109 60 Catalan-Zahlen, 182, 178–183
27 Assoziativitätsgesetz, 18 61 Cauchy-Folge, 190
28 aufgespannter Unterraum, siehe er- 62 Cauchy-Produkt, 176
29 zeugter Unterraum 63 Cayley-Hamilton
30 aufspannender Teilgraph, 38 64 Satz von, 134, 151
31 Aussonderungsaxiom, 8 65 Charakteristik, 60
32 Auswahlaxiom, 13, 19, 27 66 charakteristische Matrix, 128, 146
33 Auswertung, 62 67 charakteristische Polynom, 128
68 Code, 103
34 Banachraum, 190 69 Codewort, 103
35 Basis, 82
36 Basisergänzungssatz, 85, 113 70 Darstellungsmatrix, 95
225
226 Index